【SIGIR2024教程】基于大语言模型的信息检索代理
数据派THU
共 1448字,需浏览 3分钟
·
2024-07-24 17:00
来源:专知 本文为论文介绍,建议阅读5分钟 在本教程中,我们将深入探讨LLM驱动代理在各种信息检索领域中的前沿技术。
关于我们
数据派THU作为数据科学类公众号,背靠清华大学大数据研究中心,分享前沿数据科学与大数据技术创新研究动态、持续传播数据科学知识,努力建设数据人才聚集平台、打造中国大数据最强集团军。
新浪微博:@数据派THU
微信视频号:数据派THU
今日头条:数据派THU
评论
AI Agent 基于大模型的人工智能代理
向AI转型的程序员都关注公众号 机器学习AI算法工程现在大模型之争已经到了一个高度了,未来还会进化,但是我们的重点就不要放在大模型上了。放在什么地方呢?放在配套技术的完善上,其中很重要的配套技术叫AI Agents,就是人工智能体。AI Agent(也称人工智能代理)是一种能够感知环境、进
机器学习AI算法工程
0
Chinese-Vicuna基于 LLaMA 的中文大语言模型
Chinese-Vicuna 是一个中文低资源的 LLaMA+Lora 方案。项目包括finetun
Chinese-Vicuna基于 LLaMA 的中文大语言模型
0
WizardLM基于 LLaMA 的微调大语言模型
WizardLM 是一个经过微调的 7B LLaMA 模型。它通过大量具有不同难度的指令跟随对话进行
WizardLM基于 LLaMA 的微调大语言模型
0
Chinese-Vicuna基于 LLaMA 的中文大语言模型
Chinese-Vicuna是一个中文低资源的LLaMA+Lora方案。项目包括finetune模型的代码推理的代码仅使用CPU推理的代码(使用C++)下载/转换/量化Facebookllama.ck
Chinese-Vicuna基于 LLaMA 的中文大语言模型
0
LaWGPT基于中文法律知识的大语言模型
LaWGPT是一系列基于中文法律知识的开源大语言模型。该系列模型在通用中文基座模型(如Chinese-LLaMA、ChatGLM等)的基础上扩充法律领域专有词表、大规模中文法律语料预训练,增强了大模型
LaWGPT基于中文法律知识的大语言模型
0
WizardLM基于 LLaMA 的微调大语言模型
WizardLM是一个经过微调的7BLLaMA模型。它通过大量具有不同难度的指令跟随对话进行微调。这个模型的新颖之处在于使用了LLM来自动生成训练数据。WizardLM模型使用一种名为Evol-Ins
WizardLM基于 LLaMA 的微调大语言模型
0