简介
baichuan-7B 是开源的大规模预训练模型,基于 Transformer 结构,在大约 1.2 万亿 tokens 上训练的 70 亿参数模型,支持中英双语,上下文窗口长度为 4096。整体模型基于标准的Transformer结构,采用了和LLaMA一样的模型设计位置编码:rotary-emb... 更多
其它信息
地区
国产
开发语言
Python
开源组织
无
所属分类
神经网络/人工智能、 LLM(大语言模型)
授权协议
Apache
操作系统
跨平台
收录时间
2023-09-25
软件类型
开源软件
适用人群
未知
评价
0.0(满分 10 分)0 个评分
什么是点评分
全部评价(
0)
推荐率
100%