XVERSE-13B支持多语言的大语言模型
XVERSE-13B 是由深圳元象科技自主研发的支持多语言的大语言模型(Large Language Model),主要特点如下:
- 模型结构:XVERSE-13B 使用主流 Decoder-only 的标准 Transformer 网络结构,支持 8K 的上下文长度(Context Length),为同尺寸模型中最长,能满足更长的多轮对话、知识问答与摘要等需求,模型应用场景更广泛。
- 训练数据:构建了 1.4 万亿 token 的高质量、多样化的数据对模型进行充分训练,包含中、英、俄、西等 40 多种语言,通过精细化设置不同类型数据的采样比例,使得中英两种语言表现优异,也能兼顾其他语言效果。
- 分词:基于 BPE(Byte-Pair Encoding)算法,使用上百 GB 语料训练了一个词表大小为 100,278 的分词器,能够同时支持多语言,而无需额外扩展词表。
- 训练框架:自主研发多项关键技术,包括高效算子、显存优化、并行调度策略、数据-计算-通信重叠、平台和框架协同等,让训练效率更高,模型稳定性强,在千卡集群上的峰值算力利用率可达到 58.5%,位居业界前列。
评测结果
为验证模型的各项能力,选取了多个学科综合能力评测集,包括 MMLU(英文)、 C-Eval(中文)、AGIEval(中英) 、GAOKAO-Bench(中英)、GAOKAO-English(英文),评测结果如下:
模型\数据集 | MMLU | C-Eval | AGIEval1 | GAOKAO-Bench1 | GAOKAO-English1 |
---|---|---|---|---|---|
Baichuan-13B | 51.62 | 53.63 | 40.5 | 45.9 | 56.9 |
Llama-1-13B | 46.94 | 28.8 | 27.3 | 26.4 | 38.1 |
Llama-2-13B | 54.84 | 35.6 | 33.4 | 35.4 | 60.6 |
moss-moon-003-base (16B) | 24.7 | 33.13 | 26.8 | 28.5 | 34.7 |
OpenLLaMA-13B | 42.4 | 24.7 | 24.0 | 25.6 | 33.3 |
OPT-13B | 25.2 | 25.0 | 24.2 | 24.4 | 31.1 |
Pythia-12B | 25.1 | 26.2 | 25.3 | 25.3 | 26.8 |
Ziya-LLaMA-13B-Pretrain-v1 | 43.9 | 30.2 | 27.2 | 26.4 | 37.6 |
XVERSE-13B | 55.1 | 54.7 | 41.4 | 53.9 | 66.5 |
1:只针对其中的单项选择题进行测试,即排除了填空题、开放性问题和多项选择题
2:来源于 Baichuan-13B 的汇报结果
3:来源于 C-Eval 的汇报结果
4:来源于Llama 2 论文的汇报结果对于 MMLU ,采用作者提供的评测工具,C-Eval、AGIEval、GAOKAO-Bench、GAOKAO-English 与 MMLU 的评测方式相同,且统一采用 5-shot 构造测试样本。
MMLU 各类别指标
模型\类别 | Average | STEM | Social Science | Humanities | Others |
---|---|---|---|---|---|
Baichuan-13B | 51.6 | 41.6 | 60.9 | 47.4 | 58.5 |
Llama-1-13B | 46.9 | 35.8 | 53.8 | 45.0 | 53.3 |
Llama-2-13B | 54.8 | 44.1 | 62.6 | 52.8 | 61.1 |
moss-moon-003-base (16B) | 24.7 | 23.0 | 24.0 | 25.2 | 26.3 |
OpenLLaMA-13B | 42.4 | 34.7 | 48.6 | 40.0 | 47.1 |
OPT-13B | 25.2 | 23.9 | 24.1 | 25.9 | 26.3 |
Pythia-12B | 25.1 | 24.8 | 23.0 | 26.1 | 26.0 |
Ziya-LLaMA-13B-Pretrain-v1 | 43.9 | 36.3 | 48.8 | 41.1 | 50.3 |
XVERSE-13B | 55.1 | 44.5 | 64.4 | 50.5 | 62.9 |
C-Eval 各类别指标
模型\类别 | Average | STEM | Social Science | Humanities | Others |
---|---|---|---|---|---|
Baichuan-13B | 53.6 | 47.0 | 66.8 | 57.3 | 49.8 |
Llama-1-13B | 28.8 | 27.5 | 33.9 | 27.7 | 27.7 |
Llama-2-13B | 35.6 | 34.5 | 39.8 | 36.2 | 33.2 |
moss-moon-003-base (16B) | 33.1 | 31.6 | 37.0 | 33.4 | 32.1 |
OpenLLaMA-13B | 24.7 | 25.5 | 23.5 | 24.2 | 24.7 |
OPT-13B | 25.0 | 24.4 | 24.6 | 25.9 | 25.4 |
Pythia-12B | 26.2 | 26.8 | 25.1 | 26.7 | 25.4 |
Ziya-LLaMA-13B-Pretrain-v1 | 30.2 | 27.8 | 34.3 | 32.0 | 29.0 |
XVERSE-13B | 54.7 | 45.6 | 66.2 | 58.3 | 56.9 |
评论