直接爆了!阿里Qwen2登顶全球开源第一!

共 1830字,需浏览 4分钟

 ·

2024-07-17 21:59


来源:网络

近日,OpenAI 突然宣布将正式封锁来自中国、朝鲜、俄罗斯等非支持国家和地区的 API 流量,终止对中国提供 API 服务,进一步收紧国内开发者访问 GPT 等高水平大模型。

开源大模型格局彻底变了!

6月27日凌晨,全球知名的开源平台Hugging Face的联合创始人兼首席执行官Clem在社交平台激动宣布,阿里巴巴最新开源的Qwen2-72B指令微调版本在开源模型排行榜上荣登榜首。

HuggingFace联合创始人兼CEO Clem发文表示:“Qwen2是王者,中国在全球开源大模型领域处于领导地位。”

他表示,为了提供全新的开源大模型排行榜,使用了300块H100对目前全球100多个主流开源大模型,例如,Qwen2、Llama-3、mixtral、Phi-3等,在 BB H、MUSR、MMLU-PRO、GPQA等基准测试集上进行了全新评估。

根据排行榜的数据显示,Meta开源的Llama-3-70B指令微调版本位列第2;阿里的Qwen2-72B基础版本排名第3;Mistralai的Mixtral-8x22B指令微调版本排名第4;第9和第10名,全部都是阿里之前开源的Qwen1.5基础和Chat版本。

令人瞩目的是,阿里巴巴开源的Qwen-2 72B模型在激烈竞争中脱颖而出,不仅超越了科技巨头Meta的Llama-3,还超越了法国知名大模型平台Mistralai的Mixtral,成为了新的行业领军者。这一成绩充分说明中国对全球开源大模型的重要贡献以及领导地位。

而作为国产大模型,阿里开源的4款大模型也已经不是第一次傲视群雄了!

早在今年的6月7日,阿里巴巴通义千问团队发布了Qwen2系列开源模型。发布两小时,直接冲上HggingFace开源大模型榜单第一。

今天是他们本月第二次发榜。

这次的榜单是v2版本,HuggingFace一年来首次全面更新的版本。榜单内的测试集,更难、更好、更快、更强(Harder, better, faster, stronger),对模型的考察也更有说服力。

HuggingFace在技术博文指出。过去一年,Open LLM Leaderboard的基准指标已经被过度使用,出现几个问题:

  1. 题目对模型来说变得太简单;

  2. 一些新近出现的模型出现数据污染迹象;

  3. 有些测评基准存在错误。


因此,平台提出了更有挑战性的V2榜单,基于未受污染、高质量数据集的新基准,运用可靠的度量标准。

当然,不论新老榜单,Qwen2-72B都是稳稳的第一名,再次验证了通义Qwen作为全球最强开源模型的实力。

针对这一排名结果,Stability AI的研究总监、早年在19岁便获得博士学位的Tanishq则表示,他早前就预测中国在开源大模型领域具有强大的竞争力。除了Qwen2,还有零一万物、InternLM、Deepsseek等众多优秀的中国开源模型,都在国际舞台上崭露头角。

Tanishq进一步强调,任何关于中国在开源大模型领域落后的观点都是站不住脚的。相反,中国在这一领域正逐渐展现出领导者的姿态,引领着全球开源模型的发展潮流。

更有意思的事是,还有网友自制梗图庆祝阿里开源的Qwen-2 72B,力压科技、社交巨头Meta的Llama-3,还超越了法国知名大模型平台Mistralai的Mixtral,成为新的行业领军者。

阿里为大模型所付出努力和贡献,无疑是更进一步推动了国内大模型的发展。

Qwen-2开源地址:

https://huggingface.co/Qwen/Qwen2-72B-Instruct








回复 【关闭】学永久关闭App开屏广告
回复 【删除】学自动检测那个微信好友删除、拉黑
回复 【手册】获取3万字.NET、C#工程师面试手册
回复 【帮助】获取100+个常用的C#帮助类库
回复 【加群】加入DotNet学习交流群

浏览 69
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报