为什么复旦MOSS大模型的中文水平不如英文?
水木人工智能学堂
共 1938字,需浏览 4分钟
· 2023-02-25
评论
MOSS对话大语言模型
MOSS是一个支持中英双语和多种插件的开源对话语言模型,moss-moon系列模型具有160亿参数,在FP16精度下可在单张A100/A800或两张3090显卡运行,在INT4/8精度下可在单张309
MOSS对话大语言模型
0
Chinese-Vicuna基于 LLaMA 的中文大语言模型
Chinese-Vicuna是一个中文低资源的LLaMA+Lora方案。项目包括finetune模型的代码推理的代码仅使用CPU推理的代码(使用C++)下载/转换/量化Facebookllama.ck
Chinese-Vicuna基于 LLaMA 的中文大语言模型
0
Chinese-Vicuna基于 LLaMA 的中文大语言模型
Chinese-Vicuna 是一个中文低资源的 LLaMA+Lora 方案。项目包括finetun
Chinese-Vicuna基于 LLaMA 的中文大语言模型
0
LaWGPT基于中文法律知识的大语言模型
LaWGPT是一系列基于中文法律知识的开源大语言模型。该系列模型在通用中文基座模型(如Chinese-LLaMA、ChatGLM等)的基础上扩充法律领域专有词表、大规模中文法律语料预训练,增强了大模型
LaWGPT基于中文法律知识的大语言模型
0
Chinese-LLaMA-Alpaca中文 LLaMA & Alpaca 大模型
Chinese-LLaMA-Alpaca包含中文LLaMA模型和经过指令微调的Alpaca大型模型。这些模型在原始LLaMA的基础上,扩展了中文词汇表并使用中文数据进行二次预训练,从而进一步提高了对中
Chinese-LLaMA-Alpaca中文 LLaMA & Alpaca 大模型
0
BELLE开源中文对话大模型
BELLE:BeEveryone'sLargeLanguagemodelEngine(开源中文对话大模型)本项目目标是促进中文对话大模型开源社区的发展,愿景做能帮到每一个人的LLMEngine。现阶段
BELLE开源中文对话大模型
0