导读:12月13日,博通公布新一季度财报,截至目前,股价大涨超30%。与此同时,英伟达开始了漫长的阴跌,较高点跌幅近10%,市值蒸发约3000亿美元。二者泾渭分明的关键正是博通新推出的ASIC芯片服务。博通如何撼动英伟达在算力领域的霸权?ASIC有何过人之处?国内投融现状如何?本文尝试分析和探讨。
被寄予厚望的博通
博通是一家专注于半导体和基础设施软件解决方案的多元化公司,在无线连接、网络处理器和定制AI芯片领域取得了领先优势。12月13日,公司CEOHockTan在业绩说明会上表示,公司2027年超大规模客户的AI收入将达到600-900亿美元,几乎每年翻倍。上述言论一举燃爆市场热情,博通股价当日上涨超24%,成为人类历史上第九家市值突破1万亿美元的公司。
博通说的AI收入究竟是什么?除了其优势的交换机业务外,最大的部分在于ASIC芯片服务。ASIC是一种为某种特定任务设计的芯片,一般会被应用于特定设计和制造的设备中,执行必要的功能。在AI芯片中,ASIC被用来处理特定的任务,且相比GPU而言,拥有更高的处理速度和更低的能耗。
按功能分类,AI芯片可以分为训练卡和推理卡两个类型。训练卡也叫大卡,通常拥有更高的计算能力和内存带宽,以支持训练过程中的大量计算和数据处理;推理卡也称小卡,其参数较低,只需满足推理需求。一般情况下,训练卡可以作为推理卡使用,但推理卡不能作为训练卡使用。简单来说,大模型的训练需要大量的训练卡形成显卡集群,而在应用上,则需要推理卡运行AI模型进行计算。
在2023年以来的AI大规模基建中,“百模大战”推升了算力需求。对大模型的预训练中,训练卡是焦点,而GPU由于高适配性、性能强大成为了训练卡的标配。英伟达也几乎垄断了所有算力市场,其在AI芯片市场占有率超过90%。
英伟达为什么这么强大?原因在于英伟达卖出的不仅仅是算力芯片,而是一整套生态系统。英伟达生态系统中手握三张王牌,包括领先的GPU、十年磨一剑的CUDA以及网络传输NvLink。英伟达自2010年以来发力AI算力,尤其是近年来推出的H100、H200、GB200等,单卡算力稳坐第一梯队。CUDA是一套芯片编程模型,为开发者提供了利用GPU进行高效并计算的全方位支持。NvLink采用点对点结构,通过串列传输实现高速数据运输,传输速率是传统PCIE的7倍。
不过,目前局面正在改变,博通可能是最接近英伟达的挑战者。一方面博通在网络芯片、交换机和路由器方面有强大的积累,其推出的千兆以太网方案,其传输速率不弱于Nvlink。另一方面,博通在半导体领域浸润多年,可帮助客户完成从设计到封装所有的环节。在生态方面,由于执行特定的任务,一般不需要复杂的生态环境。简而言之,博通打出的组合拳约等于以自己在交换芯片方面的积累和定制芯片加上客户自己的软件硬撼英伟达。
前景很美好,但现实很骨感。就目前而言,英伟达其三季度在AI方面收入308亿美元,而博通最近一个季度AI收入仅为37亿美元,体量差距还相当大。而市场对博通的追捧可能仅仅意味着反抗英伟达霸权的开始。
据Marvell预测,2023年ASIC占数据中心加速计算芯片的16%,规模约为66亿美元;随着AI计算需求的增长,ASIC占比有望提升至25%,预计2028年数据中心ASIC市场规模将提升至429亿美元,CAGR为45.4%。就整体规模而言,AIASIC增速相对较快,但赶上GPU尚需时间。
2、如遇本站资源无法下载、无法查看,请计时联系我们,站长将第一时间修复。