对GPT-4o 模型的一些猜想!全网最细!

阿泽的学习笔记

共 1893字,需浏览 4分钟

 ·

2024-05-21 12:05

来源|知乎—亚东

地址|https://zhuanlan.zhihu.com/p/697626191


作为OpenAI最新的发布产品GPT-4o是一个非常优秀的多模态大模型。它的输入是语音、文字、图像/视频。输出自然有语音、文字、图像。如果说它像一个人的能力,那还真的差不多了。可能离AGI就不远了吧!在现有的AI能力路上,SamAltman那句逆言的忠耳一定要听:不要在OpenAI前进的路上;不要研究基础的AI能力。
可是OpenAI又不站在中国这一边,能怎么办呢?我们只能一边期望OpenAI达到AGI;一边既要努力研发芯片、一边又要努力研究模型;还要判断 GPT5是不是就极度接近AGI了呢?
不管这些,还是看看GPT-4o可能的技术吧。也许你看一个公司的产品发布是会得到它的技术端倪的。
从整体上看,GPT-4o是一个极其特殊的多模态模型。不太可能是多个模型组合的东西。所以,它的大概结构框架可能是这样的图:
这里边有几个难点
流式的语音识别。尽管从架构上看,流式语音与批处理语音处理的差别不大。但是实际技术难度上是有相当大的区别的。因为批处理在数据预处理,模型数据的输入固定大小,模型的训练等方面与这个图像、文字可能没有什么差异,只要在数据预处理这块做个手脚,完成特征到嵌入的转换,可能就是一个标准的多模型模型就成了!
但是这个流式的处理,麻烦在于两点:实时性对于性能极其的敏感,这次的GPT-4o本身可以说在300ms左右解决了输入与输出这个响应,那在基础模型的优化计算、算力的大的集群调度上有了一个质的飞跃!甚至是Nvidia的显卡供货上都得到了优先保障!
另一个难点,可能是流式模型的嵌入转化。这方面的论文好像在去年才逐渐增加的。典型的是 onformer-Based on-Device Streaming Speech Recognition 一类的吧。tract/document/10023291
所以我觉得这个流式的问答一出来,所有搞语音AI助手的创业公司真的就死掉了!
SamAltman那句逆言的忠耳一定要听:不要在OpenAI前进的路上;不要研究基础的AI能力。
再就是不那么惊艳的 文字与图像的能力,很明显过去在GPT-4这个阶段,我们是体会过这个东西的,但是说实话并没有达到特别好的程度。现在这个实时对话的那个 图的识别,你感到的是什么?
它可能正在多模态,也就是图像这个领域达到它曾经在文字处理上达到的高度。真的能够跟人一样的认清这个世界的样子?
不过这个东西的架构上,大家可能差不多,至少在国内公开的模型中通义千问曾经做得不错的。

但是,当它能看到你看到的一样的东西,也能像你一样的理解这个世界?
你不觉得它可怕吗?
再看看这个程序的理解能力,你觉得程序员怕不怕???
就问你怕不怕?
在去年我就写过程序员这个职业要完蛋的文章。
今天我要更明确的说,程序员这个职业看到了落日!
如果你想,可能真的要去重新认识一下,人工智能这件事!

END

推荐阅读

浏览 60
点赞
评论
收藏
分享

手机扫一扫分享

举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

举报