简介
本项目向社区提供中文对话模型 Linly-ChatFlow 、中文基础模型 Linly-Chinese-LLaMA 及其训练数据。 模型基于 TencentPretrain 预训练框架实现,在 32 * A100 GPU 上全参数训练(Full-tuning), 将陆续开放 7B、13B、33B、6... 更多
其它信息
授权协议
Apache-2.0
开发语言
Python
操作系统
跨平台
软件类型
开源软件
所属分类
神经网络/人工智能、 LLM(大语言模型)
开源组织
无
地区
国产
适用人群
未知
收录时间
2023-09-25
时光轴
里程碑1
LOG0
2023
2023-09
轻识收录
评价
0.0(满分 10 分)0 个评分
什么是点评分
推荐
Baichuan-13B大规模语言模型
Baichuan-13B是由百川智能继 Baichuan-7B 之后开发的包含130亿参数的开源可商用的大规模语言模型,在权威的中文和英文benchmark上均取得同尺寸最好的效果。本次发布包含有预训
Baichuan-13B大规模语言模型
0
流萤中文对话式大语言模型
Firefly(流萤) 是一个开源的中文大语言模型项目(全量微调+QLoRA),支持微调Llma2、Llama、Baichuan、InternLM、Ziya、Bloom等大模型.流萤(萤火虫的别称)是
流萤中文对话式大语言模型
0
鹏程·盘古α中文预训练语言模型
鹏程·盘古α是业界首个2000亿参数以中文为核心的预训练生成语言模型,目前开源了两个版本:鹏程·盘古α和鹏程·盘古α增强版,并支持NPU和GPU两个版本,支持丰富的场景应用,在知识问答、知识检索、知识
鹏程·盘古α中文预训练语言模型
0
Chinese BERT中文预训练语言模型
在自然语言处理领域中,预训练语言模型(Pre-trainedLanguageModels)已成为非常重要的基础技术。为了进一步促进中文信息处理的研究发展,我们发布了基于全词遮罩(WholeWordMa
Chinese BERT中文预训练语言模型
0