搜索
下载APP
华佗GPT开源中文医疗大模型
认领
关注
0
粉丝
HuatuoGPT(华佗GPT)是开源中文医疗大模型,基于医生回复和 ChatGPT 回复,让语言模型成为医生,提供丰富且准确的问诊。HuatuoGPT 致力于通过融合 ChatGPT 生成的 “蒸馏数据” 和真实世界医生回复的数据,以使语言模型具备像医生一样的诊断能力和提供有用信息的能力,同时保持
知识
简介
HuatuoGPT(华佗GPT)是开源中文医疗大模型,基于医生回复和 ChatGPT 回复,让语言模型成为医生,提供丰富且准确的问诊。HuatuoGPT 致力于通过融合 ChatGPT 生成的 “蒸馏数据” 和真实世界医生回复的数据,以使语言模型具备像医生一样的诊断能力和提供有用信息的能力,同时保持...
更多
其它信息
授权协议
Apache
开发语言
Python
操作系统
跨平台
软件类型
开源软件
所属分类
神经网络/人工智能、 LLM(大语言模型)
开源组织
无
地区
国产
适用人群
未知
时光轴
里程碑
1
LOG
0
2023
09-25
轻识收录
打卡
我要打卡
我要打卡
评价
0.0
(满分 10 分)
0 个评分
什么是点评分
图片
表情
视频
评价
全部评价( 0)
推荐率 100%
推荐
GPT Neo开源 GPT 模型
GPT Neo 使用 mesh-tensorflow 库实现了 GPT 系列的语言模型,其中包括 G
GPT Neo开源 GPT 模型
GPTNeo使用mesh-tensorflow库实现了GPT系列的语言模型,其中包括GPT-2和GPT-3,声称可以扩展到完整的GPT-3大小。
BELLE开源中文对话大模型
BELLE:BeEveryone'sLargeLanguagemodelEngine(开源中文对话大模型)本项目目标是促进中文对话大模型开源社区的发展,愿景做能帮到每一个人的LLMEngine。现阶段
M3E开源中文 Embedding 模型新 SOTA
M3E 是 Moka Massive Mixed Embedding 的缩写Moka,此模型由 Mo
M3E开源中文 Embedding 模型新 SOTA
M3E是MokaMassiveMixedEmbedding的缩写Moka,此模型由MokaAI训练,开源和评测,训练脚本使用 uniem ,评测BenchMark使用 MTEB-zhMassive,此
Chinese-LLaMA-Alpaca中文 LLaMA & Alpaca 大模型
Chinese-LLaMA-Alpaca 包含中文 LLaMA 模型和经过指令微调的 Alpaca
Chinese-LLaMA-Alpaca中文 LLaMA & Alpaca 大模型
Chinese-LLaMA-Alpaca包含中文LLaMA模型和经过指令微调的Alpaca大型模型。这些模型在原始LLaMA的基础上,扩展了中文词汇表并使用中文数据进行二次预训练,从而进一步提高了对中
baichuan-7B开源中英文大模型
baichuan-7B是开源的大规模预训练模型,基于Transformer结构,在大约1.2万亿tokens上训练的70亿参数模型,支持中英双语,上下文窗口长度为4096。整体模型基于标准的Trans
TransGPT开源交通大模型
TransGPT是开源交通大模型,主要致力于在真实交通行业中发挥实际价值。它能够实现交通情况预测、智能咨询助手、公共交通服务、交通规划设计、交通安全教育、协助管理、交通事故报告和分析、自动驾驶辅助系统
TransGPT开源交通大模型
TransGPT 是开源交通大模型,主要致力于在真实交通行业中发挥实际价值。它能够实现交通情况预测、