简介
GPT-J 是一个基于 GPT-3,由 60 亿个参数组成的自然语言处理 AI 模型。该模型在一个 800GB 的开源文本数据集上进行训练,并且能够与类似规模的 GPT-3 模型相媲美。该模型通过利用 Google Cloud 的 v3-256 TPU 以及 EleutherAI 的 The Pil... 更多
其它信息
地区
不详
开发语言
Python
开源组织
无
所属分类
神经网络/人工智能、 LLM(大语言模型)
授权协议
Apache-2.0
操作系统
跨平台
收录时间
2023-09-25
软件类型
开源软件
适用人群
未知
评价
0.0(满分 10 分)0 个评分
什么是点评分
全部评价(
0)
推荐率
100%