nanoGPT快速轻量的中型 GPT 项目

联合创作 · 2023-09-25 21:50

nanoGPT 自称是训练/调整中型 GPT 最简单、最快的资料库,目前仍在积极开发中,但文件 train.py在 OpenWebText 上重现了 GPT-2(在一个 8XA100 40GB 节点上训练了大约 4 天)。



因为代码非常简单,所以很容易根据你的需要进行修改、从头开始训练新的模型,或者对预训练的进行微调。


安装


依赖项:



  • pytorch <3

  • numpy <3

  • pip install transformers

  • pip install datasets

  • pip install tiktoken

  • pip install wandb

  • pip install tqdm


 


 

浏览 18
点赞
评论
收藏
分享

手机扫一扫分享

编辑 分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

编辑 分享
举报