语言模型的冰山一角:微调是不必要, AI21 Labs探索冻结模型未开发潜力
视学算法
共 3694字,需浏览 8分钟
·
2022-05-19 12:39
来自 AI21 Labs 这项研究表明,微调通常是一种不必要的浪费,关键是找到站在大型冻结语言模型的肩膀上的最佳方式。
© THE END
转载请联系原公众号获得授权
点个在看 paper不断!
评论
StableLMStability AI 开发的语言模型
StableLM项目仓库包含StabilityAI正在开发的StableLM系列语言模型,目前StabilityAI发布了初始的StableLM-alpha模型集,具有30亿和70亿参数。150亿和3
StableLMStability AI 开发的语言模型
0
StableLMStability AI 开发的语言模型
StableLM 项目仓库包含 Stability AI 正在开发的 StableLM 系列语言模型
StableLMStability AI 开发的语言模型
0
WizardLM基于 LLaMA 的微调大语言模型
WizardLM是一个经过微调的7BLLaMA模型。它通过大量具有不同难度的指令跟随对话进行微调。这个模型的新颖之处在于使用了LLM来自动生成训练数据。WizardLM模型使用一种名为Evol-Ins
WizardLM基于 LLaMA 的微调大语言模型
0
WizardLM基于 LLaMA 的微调大语言模型
WizardLM 是一个经过微调的 7B LLaMA 模型。它通过大量具有不同难度的指令跟随对话进行
WizardLM基于 LLaMA 的微调大语言模型
0
YuLan-Chat基于中英文混合指令微调的大语言对话模型
YuLan-Chat 是基于高质量中英文混合指令微调的大语言对话模型。YuLan-Chat 采用 L
YuLan-Chat基于中英文混合指令微调的大语言对话模型
0