脸书狂买35万块算力卡,背后竟然因为内斗?
共 808字,需浏览 2分钟
·
2024-03-28 23:30
2024年刚开始,脸书的创始人扎克伯克就宣布了一个大手笔:要囤 35万块英伟达的高端算力显卡H100。并且宣布届时,脸书将拥有等效 60万块H100的算力资源。太壕了,估计国内所有算力加起来都没这么多。
孤注一掷地砸算力是为啥呢?原来脸书正在训练开源大模型Llama的下一代Llama 3。并且力争要成为下一代领先的AI大模型。整个公司都要转型成为用通用人工智能支撑的公司。简单说,就是要全力和OpenAI、以及Google硬刚了。
有一个反直觉的现象:脸书这家公司其实非常缺算力。Llama早期大部分作者都跑了,很大一部分原因就是在公司内部申请不到算力资源。法国的开源大模型Mistral的创始人就是Llama团队的,跑回法国创业了。
脸书内部搞AI的团队很多,争抢算力资源很厉害。除了搞生成式AI,像Llama大模型的团队之外,还有一个人工智能研究实验室,叫做FAIR。这个FAIR实验室是业界大佬,图灵奖获得者Yann Lecun在领导的,中文名杨立昆。杨立昆非常鄙视生成式AI,认为这条路没前途,他在FAIR领导一个叫做「世界模型」的技术路线,并且不遗余力到处宣讲。
内部搞几个不同的技术路线,互相鄙视,这也是Llama团队人员流失严重的原因之一。但这次扎克伯克也下了狠手了,直接把生成式AI的团队,和杨立昆领导的FAIR实验室合并了。这很像Google。Google也是内部分成了Google大脑和DeepMind两个团队撕逼,最后强行合并,由DeepMind主导了。
合并之后,脸书的战略非常明确就是走AI大模型+终端元宇宙的道路。最近苹果的头显Vision Pro也卖疯了。估计最终几大IT巨头都会殊途同归,回到AI+元宇宙的竞争上来吧。
范凯谈AI,欢迎加我个人微信:CTOfankai, 和我交流。