搜索
FinGPT金融领域大型预训练语言模型
认领
关注
0
粉丝
FinGPT 是金融领域大型预训练语言模型。它能理解和生成财经新闻,分析社交媒体上的公众情绪,解读金融报告如年度报告、季度收益报告等,进行市场预测,以
知识
简介
FinGPT 是金融领域大型预训练语言模型。它能理解和生成财经新闻,分析社交媒体上的公众情绪,解读金融报告如年度报告、季度收益报告等,进行市场预测,以及通过学习用户的个人偏好,提供个性化的投资建议。FinGPT 的训练数据来自多种在线来源,包括财经新闻网站(如路透社、CNBC、雅虎财经等)、社交媒体...
更多
其它信息
地区
国产
开发语言
Python
开源组织
无
所属分类
企业应用、 金融/财务/证券系统
授权协议
MIT
操作系统
跨平台
收录时间
2023-10-01
软件类型
开源软件
适用人群
未知
时光轴
里程碑
1
LOG
0
2023
2023-10
轻识收录
打卡
我要打卡
我要打卡
评价
0.0
(满分 10 分)
0 个评分
什么是点评分
图片
表情
视频
评价
全部评价( 0)
推荐率 100%
推荐
Chinese BERT中文预训练语言模型
在自然语言处理领域中,预训练语言模型(Pre-trainedLanguageModels)已成为非常重要的基础技术。为了进一步促进中文信息处理的研究发展,我们发布了基于全词遮罩(WholeWordMa
Chinese BERT中文预训练语言模型
在自然语言处理领域中,预训练语言模型(Pre-trained Language Models)已成为
鹏程·盘古α中文预训练语言模型
鹏程·盘古α是业界首个2000亿参数以中文为核心的预训练生成语言模型,目前开源了两个版本:鹏程·盘古α和鹏程·盘古α增强版,并支持NPU和GPU两个版本,支持丰富的场景应用,在知识问答、知识检索、知识
鹏程·盘古α中文预训练语言模型
鹏程·盘古α是业界首个2000亿参数以中文为核心的预训练生成语言模型,目前开源了两个版本:鹏程·盘古
MPT-30B大型语言模型
MPT-30B是MosaicPretrainedTransformer(MPT)模型系列的一部分,它使用了一个为高效训练和推理而优化的transformer架构,并在1Ttokens的英文文本和代码上
PERT基于 BERT 的预训练语言模型
在自然语言处理领域中,预训练语言模型(Pre-trained Language Models,PLM
YaLM 100B千亿参数预训练语言模型
YaLM100B是一个类似GPT的神经网络,用于生成和处理文本。该模型利用了1000亿个参数,在800个A100显卡和1.7TB在线文本、书籍以及海量其他英文和俄文资源的集群上训练该模型花了65天时间
VLE视觉-语言多模态预训练模型
VLE (Vision-Language Encoder)是一种基于预训练文本和图像编码器的图像-文本多模态理解模型,可应用于如视觉问答、图像-文本检索等多模态判别任务。特别地,在对语言理解和推理能力
VLE视觉-语言多模态预训练模型
VLE (Vision-Language Encoder) 是一种基于预训练文本和图像编码器的图像-
YaLM 100B千亿参数预训练语言模型
YaLM 100B是一个类似 GPT 的神经网络,用于生成和处理文本。该模型利用了 1000 亿个参