M3E开源中文 Embedding 模型新 SOTA

0获赞0粉丝0关注
M3E 是 Moka Massive Mixed Embedding 的缩写Moka,此模型由 MokaAI 训练,开源和评测,训练脚本使用 unie
简介
M3E 是 Moka Massive Mixed Embedding 的缩写Moka,此模型由 MokaAI 训练,开源和评测,训练脚本使用 uniem ,评测 BenchMark 使用 MTEB-zhMassive,此模型通过千万级 (2200w+) 的中文句对数据集进行训练Mixed,此模型支持... 更多
其它信息
地区
不详
开发语言
Python
开源组织
所属分类
神经网络/人工智能、 LLM(大语言模型)
授权协议
未知
操作系统
跨平台
收录时间
2023-09-25
软件类型
开源软件
适用人群
未知

时光轴

里程碑1
LOG0
2023
2023-09
轻识收录
评价
0.0(满分 10 分)0 个评分
什么是点评分
图片
表情
全部评价( 0)
推荐率 100%
推荐