GPT-2基于 transformer 的大型语言模型

0获赞0粉丝0关注
GPT-2 是一种基于 transformer 的大型语言模型,具有 15 亿个参数,在 800 万网页数据集上进行训练。它是论文《语言模型是无人监督
简介
GPT-2 是一种基于 transformer 的大型语言模型,具有 15 亿个参数,在 800 万网页数据集上进行训练。它是论文《语言模型是无人监督的多任务学习者》(Language Models are Unsupervised Multitask Learners)的代码实现。目前发布了 GP... 更多
其它信息
地区
不详
开发语言
Python
开源组织
所属分类
神经网络/人工智能、 LLM(大语言模型)
授权协议
MIT
操作系统
跨平台
收录时间
2023-09-25
软件类型
开源软件
适用人群
未知

时光轴

里程碑1
LOG0
2023
2023-09
轻识收录
评价
0.0(满分 10 分)0 个评分
什么是点评分
图片
表情
全部评价( 0)
推荐率 100%
推荐