GPT-2基于 transformer 的大型语言模型

0获赞0粉丝0关注
GPT-2 是一种基于 transformer 的大型语言模型,具有 15 亿个参数,在 800 万网页数据集上进行训练。它是论文《语言模型是无人监督
加载更多