搜索
下载APP
ChatGLM Efficient Tuning基于 PEFT 的高效 ChatGLM 微调
认领
关注
0
粉丝
ChatGLM Efficient Tuning 是基于 PEFT 的高效 ChatGLM-6B 微调。目前实现了针对以下数据集的支持:Stanfor
知识
简介
ChatGLM Efficient Tuning 是基于 PEFT 的高效 ChatGLM-6B 微调。目前实现了针对以下数据集的支持:Stanford AlpacaStanford Alpaca (Chinese)GPT-4 Generated DataBELLE 2MBELLE 1MBELLE...
更多
其它信息
授权协议
Apache-2.0
开发语言
Python
操作系统
跨平台
软件类型
开源软件
所属分类
神经网络/人工智能、 LLM(大语言模型)
开源组织
无
地区
不详
适用人群
未知
时光轴
里程碑
1
LOG
0
2023
09-25
轻识收录
打卡
我要打卡
我要打卡
评价
0.0
(满分 10 分)
0 个评分
10分
什么是点评分
图片
表情
视频
评价
全部评价( 0)
推荐率 100%
推荐
QLoRA量化 LLM 的高效微调
QLoRA是华盛顿大学提出的一种有效的微调方法,可以减少内存使用量,足以在单个48GBGPU上微调65B参数模型,同时保留完整的16位微调任务性能。QLoRA通过冻结的4位量化预训练语言模型将梯度反向
QLoRA量化 LLM 的高效微调
QLoRA 是华盛顿大学提出的一种有效的微调方法,可以减少内存使用量,足以在单个 48GB GPU
BigCache基于 Go 的高效缓存
BigCache是用于在Go中写入千兆字节数据的高效缓存。快速,并发,逐行扫描内存缓存,以保持大量条目,而不影响性能。BigCache在堆上保留条目,但为它们省略了GC。要实现对字节数组的操作,因此在
本草基于中文医学知识的 LLaMA 微调模型
本草【原名:华驼(HuaTuo)】是基于中文医学知识的 LLaMA 微调模型。此项目开源了经过中文医
WizardLM基于 LLaMA 的微调大语言模型
WizardLM是一个经过微调的7BLLaMA模型。它通过大量具有不同难度的指令跟随对话进行微调。这个模型的新颖之处在于使用了LLM来自动生成训练数据。WizardLM模型使用一种名为Evol-Ins
BigCache基于 Go 的高效缓存
BigCache 是用于在 Go 中写入千兆字节数据的高效缓存。快速,并发,逐行扫描内存缓存,以保持
WizardLM基于 LLaMA 的微调大语言模型
WizardLM 是一个经过微调的 7B LLaMA 模型。它通过大量具有不同难度的指令跟随对话进行
本草基于中文医学知识的 LLaMA 微调模型
本草【原名:华驼(HuaTuo)】是基于中文医学知识的LLaMA微调模型。此项目开源了经过中文医学指令精调/指令微调(Instruct-tuning)的LLaMA-7B模型。通过医学知识图谱和GPT3
GigaSpace基于GPU的高效数据管理库
GigaSpace是一个开放的基于GPU的库,用于大量数据的高效数据管理。它由一组4个组件组成,全部
Quick-ORM基于 Java 的高效 ORM 框架
quick-orm快速开发框架Quick之数据库操作模块,能够提高数据库操作层70%效率,支持简单高效的数据库操作,脱离繁琐的XML配置,30秒快速上手,帮助开发者专注于业务。支持完全面向对象操作、异
10分