搜索
下载APP
GPT-2基于 transformer 的大型语言模型
认领
关注
0
粉丝
GPT-2 是一种基于 transformer 的大型语言模型,具有 15 亿个参数,在 800 万网页数据集上进行训练。它是论文《语言模型是无人监督的多任务学习者》(Language Models are Unsupervised Multitask Learners)的代码实现。目前发布了 GP
知识
简介
GPT-2 是一种基于 transformer 的大型语言模型,具有 15 亿个参数,在 800 万网页数据集上进行训练。它是论文《语言模型是无人监督的多任务学习者》(Language Models are Unsupervised Multitask Learners)的代码实现。目前发布了 GP...
更多
其它信息
授权协议
MIT
开发语言
Python
操作系统
跨平台
软件类型
开源软件
所属分类
神经网络/人工智能、 LLM(大语言模型)
开源组织
无
地区
不详
适用人群
未知
时光轴
里程碑
1
LOG
0
2023
09-25
轻识收录
打卡
我要打卡
我要打卡
评价
0.0
(满分 10 分)
0 个评分
什么是点评分
图片
表情
视频
评价
全部评价( 0)
推荐率 100%
推荐
MPT-30B大型语言模型
MPT-30B是MosaicPretrainedTransformer(MPT)模型系列的一部分,它使用了一个为高效训练和推理而优化的transformer架构,并在1Ttokens的英文文本和代码上
通义千问-7B基于 Transformer 的大语言模型
通义千问-7B(Qwen-7B)是阿里云研发的通义千问大模型系列的70亿参数规模的模型。Qwen-7B是基于Transformer的大语言模型,在超大规模的预训练数据上进行训练得到。预训练数据类型多样
通义千问-7B基于 Transformer 的大语言模型
通义千问-7B(Qwen-7B) 是阿里云研发的通义千问大模型系列的70亿参数规模的模型。Qwen-
Lit-LLaMA ️基于 nanoGPT 的语言模型
Lit-LLaMA是一个基于nanoGPT的LLaMA语言模型的实现,支持量化、LoRA微调、预训练。设计原则简单:单一文件实现,没有样板代码正确:在数值上等同于原始模型优化:在消费者硬件上或大规模运
Lit-LLaMA ️基于 nanoGPT 的语言模型
Lit-LLaMA ️基于 nanoGPT 的语言模型
0
LoRA大型语言模型的低秩适应
LoRA是 Low-RankAdaptationofLargeLanguageModels的简写,即大型语言模型的低秩适应。它冻结了预训练模型的权重,并将可训练的秩分解矩阵注入到Transformer
Lit-Parrot大型语言模型的可破解实现
Lit-Parrot 是基于 nanoGPT 的 StableLM/Pythia/INCITE 语言
Lit-Parrot大型语言模型的可破解实现
Lit-Parrot是基于nanoGPT的StableLM/Pythia/INCITE语言模型的实现。支持flashattention、LLaMA-Adapter微调、预训练。最先进的开源大型语言模型
Jigsaw Datase提高大型语言模型性能的工具
Jigsaw是微软推出的一种可以提高大型语言模型性能(如GPT-3、Codex等)的新工具。Jigsaw部署了理解程序语法和语义的后处理技术,然后利用用户反馈来提高未来的性能;该工具旨在使用多模式输入
PaLM 2谷歌下一代大型语言模型
PaLM2 是谷歌推出的下一代大型语言模型。擅长高级推理任务,包括代码和数学、分类和问答、翻译和多语言能力以及自然语言生成。谷歌声称PaLM2是一种最先进的语言模型,要优于其之前所有的LLM,包括Pa