要点: 我们距离进入ChatGPT后的世界仅仅一年,因此质疑我们是否已经达到AI的巅峰可能有些为时过早。技术的巅峰版本很少在第一年就出现,而且人工智能的主要目标——人工通用智能(AGI)——仍然是一个需要探索的领域。 然而,请听我说。 对于人工智能来说,这是一个巨大的一年。比尔·盖茨在周二发表的博客中详细阐述了“如今AI如何清晰地被运用于改善教育、心理健康等方面”。 但随着我们步入2024年,需要问的问题似乎不太在于AI将如何被使用。相反,更多地关注于今天最流行的技术形式——生成式人工智能——是否已经达到巅峰。 换句话说,今天最先进的生成式人工智能模型是否有可能实现性能上的突破? 研究人员表示,理论上性能的提升是可能的。但在实践中,要实现这些提升就更加困难了。 在Gemini发布之后,许多关于这个话题的讨论被激发了起来。这个备受期待的AI模型终于在12月6日亮相,被宣称为“谷歌迄今为止最具能力的AI模型”。 它也被认为是谷歌对OpenAI的GPT-4的回应,而GPT-4是支撑ChatGPT的大型语言模型。Gemini发布时距离GPT-4发布已有九个月,人们对它能推动生成式人工智能领域的发展寄予了很高的期望。 然而,谷歌自己的数据显示,达到期望并不容易。Gemini Ultra是谷歌AI模型的一个先进版本,将在明年推出,但在性能基准上几乎只略微领先于GPT-4。 在阅读理解方面的测评中,Gemini Ultra得分为82.4,而GPT-4为80.9。实际上,Gemini Ultra在衡量日常任务常识推理的基准测试中输给了GPT-4。 沃顿商学院教授Ethan Mollick在周二对X表示:“已经过去一年了,没有人能击败GPT-4。” 一系列AI模型发布了,它们与OpenAI较早版本的LLM相匹配。埃隆·马斯克的Grok、开源模型Mixtral和谷歌的Gemini Pro模型似乎与GPT-3.5不相上下,尽管准确性略有降低。卡内基梅隆大学的研究人员于周一在ArXiv上提交了一篇预印本论文,证实了Gemini Pro的这一点。 但是目前还没有人能令人信服地击败GPT-4。 “他们会吗?这其中有什么魔法吗?这是否表明了LLM存在某种限制?GPT-4.5会不会是另一个巨大的飞跃?”Mollick在X上写道。 业界肯定希望看到一个巨大的飞跃。人工通用智能,基本上是指AI展示与人类同等水平的认知能力,这是OpenAI负责人Sam Altman等关键人物所公开宣称的目标。 尽管目前还没有出现一个能令人信服地击败GPT-4的模型,但有可能最终会出现一个。 Transformer模型是LLM的神经网络,当它们具有更多参数(即AI模型内的变量数量)时,它们的性能会有很好的扩展性。OpenAI并未公开其模型具有多少参数,但一些估计表明,GPT-3大约有1750亿个参数。 Mohamed bin Zayed人工智能大学的顾问Alex Voica告诉《Business Insider》,Transformer模型确实“与其获得的数据和计算量成正比地扩展”。 这意味着,如果你为这些模型提供更多的AI处理器(例如GPU),或者将它们的参数数量成倍增加,它们应该会表现得更好。 但这并不是十分实际的。“如果你是一家能够负担得起拥有大量数据的公司——目前只有少数几家公司有这样的条件——而且拥有大量的计算资源,那将是非常理想的。” Voica说道。 这不仅仅是一个实际问题。最近的研究指出,transformer可能存在其他限制,这些限制可能阻止该行业实现人工通用智能(AGI)。 谷歌的研究人员上个月发表了一篇论文,暗示transformer在泛化能力上并不是很好。如果Altman及其竞争对手希望他们基于transformer的技术能帮助他们实现AGI,这并不是一个好的迹象。 Voica表示,几家科技巨头正在研究解决方案。一个例子是世界模型(world model)。简单来说,这将是在transformer基础上的技术发展,赋予其一定的推理能力。 “Transformer模型相当于具有非常好的记忆力,但它的主要局限是一旦离开其非常出色的记忆范围,它很快就会崩溃,” Voica说道。 "然而,如果你能够在那个巨大的记忆基础上增加一些推理能力,也就是世界模型,那么你将拥有一种真正有用的东西。”
|