简介
Pre-Training with Whole Word Masking for Chinese BERT(中文 BERT-wwm 系列模型)在自然语言处理领域中,预训练语言模型(Pre-trained Language Models)已成为非常重要的基础技术。为了进一步促进中文信息处理的研究发展,... 更多
其它信息
地区
国产
开发语言
Python
开源组织
无
所属分类
神经网络/人工智能、 LLM(大语言模型)
授权协议
Apache-2.0
操作系统
跨平台
收录时间
2023-09-25
软件类型
开源软件
适用人群
未知
时光轴
里程碑1
LOG0
2023
2023-09
轻识收录
评价
0.0(满分 10 分)0 个评分
什么是点评分
全部评价(
0)
推荐率
100%
推荐
Linly大规模中文语言模型
本项目向社区提供中文对话模型Linly-ChatFlow、中文基础模型Linly-Chinese-LLaMA及其训练数据。模型基于 TencentPretrain 预训练框架实现,在32*A100GP
Linly大规模中文语言模型
0
MiniRBT中文小型预训练模型
在自然语言处理领域中,预训练语言模型(Pre-trainedLanguageModels)已成为非常重要的基础技术。为了进一步促进中文信息处理的研究发展,哈工大讯飞联合实验室(HFL)基于自主研发的知
MiniRBT中文小型预训练模型
0
Chinese-LLaMA-Alpaca中文 LLaMA & Alpaca 大模型
Chinese-LLaMA-Alpaca 包含中文 LLaMA 模型和经过指令微调的 Alpaca
Chinese-LLaMA-Alpaca中文 LLaMA & Alpaca 大模型
0
BELLE开源中文对话大模型
BELLE:BeEveryone'sLargeLanguagemodelEngine(开源中文对话大模型)本项目目标是促进中文对话大模型开源社区的发展,愿景做能帮到每一个人的LLMEngine。现阶段
BELLE开源中文对话大模型
0
Chinese-LLaMA-Alpaca中文 LLaMA & Alpaca 大模型
Chinese-LLaMA-Alpaca包含中文LLaMA模型和经过指令微调的Alpaca大型模型。这些模型在原始LLaMA的基础上,扩展了中文词汇表并使用中文数据进行二次预训练,从而进一步提高了对中
Chinese-LLaMA-Alpaca中文 LLaMA & Alpaca 大模型
0