通信人家园

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

  三级军士长

注册:2007-10-294
跳转到指定楼层
1#
发表于 2024-12-16 21:12:19 |只看该作者 |倒序浏览

上周五,美股又诞生了一家市值万亿美元公司——博通。

截至收盘时,博通股价上涨24.43%,市值达到了1.05万亿美金,成为美股第9家,也是全球第12个破万亿美金市值的公司。

市值破亿,博通全靠画了一张900亿美元的“大饼”。

在财报电话会议上,公司CEO Hock Tan直言,预计到2027年公司的AI收入将达到600-900亿美元。这个口径还只是从现有3大客户拿到的收入规模。

博通CEO的自信,完全来自对ASIC的乐观。随着模型进化趋缓,叠加训练向推理迁徙超预期,让成本可控、供应链可控的ASIC登上了舞台。

在Hock Tan甚至认为,未来50%的AI算力都会是ASIC。

这可不得了!现在,英伟达在AI芯片领域的市占率80%。一旦结论成立,将彻底动摇英伟达在AI算力领域的统治地位。

今天就来聊聊,把博通推上万亿市值的ASIC,为什么突然一下子火了?

01 一张900亿美元的“大饼”

其实这并不是Hock Tan第一次看好AISC。

根据自媒体“信息平权”报道,早在7月份的一次JPM的路演中,CEO Hock Tan曾宣称,“博通未来5年的AI收入机会是1500亿美金”。

同样在高盛组织的一次科技会议上,Hock Tan还放出话来,“未来50%的AI算力都会是ASIC,甚至云服务提供商内部自用100%都将是ASIC。”

也就是说,未来所有科技大厂的算力分配都会向谷歌看齐。

现在,谷歌自家业务用的算力全都来自自研芯片TPU,谷歌云服务才用的英伟达的GPU。按博通CEO的预测,未来所有的互联网大厂,自用都是博通的ASIC XPU,外用的则是采购英伟达的GPU。这样一来,ASIC就能与GPU在AI算力上平分天下了。

别看博通CEO说的挺唬人,但他的预测并非空穴来风。

由于英伟达的卡又贵有难拿,即使拿到了各家也拉不开差距,到后面直接被搞成军备竞赛,谁拥有的英伟达算力卡多,谁厉害。

这显然不是巨头们愿意看到的,自研芯片成了所有人的共同选择。

如今,科技巨头如亚马逊、微软、谷歌和Meta都在开发自家的AI芯片,一来降低对英伟达的依赖,二来试图在算力层面构建自己的成本优势。

但是,搞芯片实在太难了,这时候就需要来博通帮忙了。

博通就是帮科技巨头开发AI芯片的。可以说,从谷歌的第一代TPU至今,博通都参与了芯片的共同设计。

双方的合作模式是,谷歌自己来定义芯片,列出需求清单,博通利用自己经验丰富的IC设计团队以及资源庞大的IP来协助开发新款TPU,同时博通还负责流片。

从公司披露的信息来看,目前博通的AI收入中,大部分都来自谷歌的的TPU。根据国外券商的预测,2024年博通AI收入在120亿美元,其中谷歌TPU贡献了80亿美金,占比超过60%。

如果所有科技巨头的算力分配都参考谷歌的话,博通的AI业务想象空间巨大。

就拿Meta的自研芯片MTIA来说,按照之前的预期,Meta会在2025年贡献博通20-30亿美金的收入。考虑到MTIA支持的就是Meta推荐引擎,而这个替换GPU也才刚刚开始,后面三年增长10倍也并非全无可能。

ASIC的机会正在得到越来越多信息的验证。除了博通,Marvell也在干类似的业务。据说,微软已经找到Marvell谈ASIC合作,Marvell高管透露称:

微软给的机会比想象中还要大

02 模型商品化与ASIC的崛起

微软等科技巨头加大ASIC上的投入,与其对模型判断的变化有关。

虽然投了OpenAI,但微软和OpenAI对模型价值的看法很不一样。今年以来,微软CEO纳德拉以及微软AI部门老大苏莱曼在不同场景都提到过一个观点:模型商品化

简单来说,大模型正在变成一种通用商品,逐渐走向标准化和同质化。应用层才是大模型发展的重心,更多资源投入也应该放到推理上

微软的观点正在得到验证。据Wind转引英伟达FY24Q4业绩会纪要,公司2024财年数据中心已经有40%的收入来自推理业务。推理场景的多样性,给ASIC带来了更多机会。

所谓ASIC,全称专用集成电路,一种更像是为特定任务量身定制的工具。

如果把GPU比作是多才多艺的多面手团队,那么ASIC就好比是给特定任务量身定制的“超级员工”,只专注做一件事,但做得又快又好。

比如你想挖矿,就有专门的挖矿芯片;你想拍照,就有专门的相机芯片。当年,比特币矿机用的就是专用ASIC芯片,成本低,处理速度也比GPU快几个数量级,性价比更高。

根据百度智能云报道,一般情况下,在线服务的GPU使用率不高,在20%左右,最高可提升至35%。由于ASIC专为特定任务设计,其算力利用率可能更高,谷歌TPU算力利用率可超过50%

虽然ASIC在性能和效率上更胜一筹,但它的研发成本也相对较高。

ASIC芯片的设计和制造不仅需要大量资金、较长的时间周期和工程周期,还对算法稳定性要求极高。如果AI算法发生较大变化,那么根据之前算法设计的ASIC计算效率就会大幅下降。

所以,ASIC并不适合在模型快速迭代期大规模应用。

不过好在随着模型迭代速度越来越慢,AI算法向Transformer收敛,深度学习框架以PyTorch为主,ASIC公司完全可以根据Transformer的特性开发芯片,不用担心投入打了水漂。

总的来说,随着模型进化趋缓,叠加训练向推理迁徙超预期,让成本可控、供应链可控的ASIC登上了舞台。

有趣的是,英伟达也盯上了这块市场。据路透社与彭博2024年2月初报道,英伟达正在建立一个专注于为云计算、AI等领域设计ASIC专用芯片的新业务部门。

英伟达进军ASIC的原因有二:第一,占领新的市场。第二,保护自己免受替代。

不过话说回来,ASIC与GPU平分天下,甚至替代GPU,不仅是博通的美好幻想,也代表着科技巨头们的意志。他们从一开始就寻求英伟达之外的替代供应方案,只要外部环境出现变化,所有人都会去寻找更有效率的解决方案,以摆脱被动的局面。

无论ASIC最终是否成立,这种“意志”都会一直持续存在。比起芯片技术变化,这才是英伟达这座看似坚不可摧芯片帝国的最大裂缝。


来源:36kr

举报本楼

本帖有 7 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

手机版|C114 ( 沪ICP备12002291号-1 )|联系我们 |网站地图  

GMT+8, 2024-12-22 22:42 , Processed in 0.160585 second(s), 17 queries , Gzip On.

Copyright © 1999-2023 C114 All Rights Reserved

Discuz Licensed

回顶部