更新时间:2026-01-21 20:26 来源:牛马见闻
从TPU v6升级至TPU v7破 TPU v7实现大幅降本在TPU v7刚刚追平GB200 NVL72之际
<p id="48PN1APC">在AI资(本开支!仍维持高位、但商业化压力不断上升的当下,市场关注点正在发生一场悄然却深刻的转移:<strong>大模型还能不能继续“无视成本地跑下去”</strong></p> <p id="48PN1APD">据追风交易台,高盛最新发布的AI芯片研究报告,并未延续市场熟悉的“算力、制程、参数规模”对比,而是从更贴近商业现实的角度切入——<strong>推理阶段的单位成本</strong>。通过构建一条“推理成本曲线”,高盛试图回答一个对AI产业至关重要的问题:在模型进入高频调用阶段后,不同芯片方案在折旧、能耗和系统利用率等约束下,<strong>每处理一百万个token究竟需要付出多少真实成本</strong></p> <p id="48PN1APE">研究结论指向了一次正在加速、但尚未被充分消化的变化:<strong>Google/Broadcom 的TPU正在迅速缩小与英伟达GPU在推理成本上的差距</strong>。从TPU v6升级至TPU v7,单位token推理成本下降约70%,使其在绝对成本层面与英伟达GB200 NVL72基本持平,部分测算情形下甚至略具优势。</p> <p id="48PN1APF">这并不意味着英伟达的地位被动摇,但它清晰地表明,<strong>AI芯片竞争的核心评价体系正在从“谁算得更快”,转向“谁算得更便宜、更可持续”</strong>。当训练逐渐成为前期投入,而推理成为长期现金流来源,成本曲线的斜率,正在取代峰值算力,成为决定产业格局的关键变量。</p> <p>一、从算力领先到成本效率,AI芯片竞争的评价标准正在切换</p> <p id="48PN1APG">在AI发展的早期阶段,训练算力几乎决定了一切。谁能更快训练出更大的模型,谁就拥有技术话语权。然而,随着大模型逐步进入部署与商业化阶段,推理负载开始远远超过训练本身,成本问题被迅速放大。</p> <p id="48PN1APH">高盛指出,在这一阶段,芯片的性价比不再只由单卡性能决定,而是由系统层面的效率共同塑造,包括算力密度、互联效率、内存带宽以及能源消耗等多重因素。<strong>基于这一逻辑构建的推理成本曲线显示,Google/Broadcom TPU在原始计算性能和系统效率上的进步,已经足以在成本维度上与英伟达正面竞争。</strong></p> <p id="48PN1API">相比之下,AMD和亚马逊Trainium在代际成本下降幅度上仍较为有限。从现阶段测算结果看,两者的单位推理成本仍明显高于英伟达和Google方案,对主流市场的冲击相对有限。</p> <p>二、TPU成本跃迁的背后,是系统工程能力而非单点突破</p> <p id="48PN1APJ">TPU v7实现大幅降本,并非来自单一技术突破,而是<strong>系统级优化能力的集中释放</strong>。高盛认为,随着计算芯片本身逐步逼近物理极限,未来推理成本能否继续下降,将越来越依赖“计算相邻技术”的进步。</p> <p id="48PN1APK">这些技术包括:更高带宽、更低延迟的网络互联;高带宽内存(HBM)和存储方案的持续集成;先进封装技术(如台积电CoWoS);以及机架级解决方案在密度与能效上的提升。<strong>TPU在这些方面的协同优化,使其在推理场景中展现出明显的经济性优势。</strong></p> <p id="48PN1APL">这一趋势也与谷歌自身的算力部署高度一致。TPU在Google内部工作负载中的使用比例持续上升,已广泛用于Gemini模型的训练与推理。同时,具备成熟软件能力的外部客户也在加速采用TPU方案,其中最引人注目的案例是Anthropic向Broadcom下达的约210亿美元订单,相关产品预计将在2026年中开始交付。</p> <p id="48PN1APM">不过,高盛同时强调,<strong>英伟达仍然掌握“上市时间”优势</strong>。在TPU v7刚刚追平GB200 NVL72之际,英伟达已经推进至GB300 NVL72,并计划在2026年下半年交付VR200 NVL144。持续的产品迭代节奏,仍是其维持客户黏性的关键筹码。</p> <p>三、投资含义再平衡:ASIC崛起,但英伟达的护城河尚未被击穿</p> <p id="48PN1APN">从投资视角看,高盛并未因TPU的快速追赶而下调对英伟达的判断。该机构仍维持对<strong>英伟达与Broadcom的买入评级</strong>,认为两者最直接绑定AI资本开支中最具可持续性的部分,并将长期受益于网络、封装和系统级技术升级。</p> <p id="48PN1APO">在ASIC阵营中,Broadcom的受益逻辑尤为清晰。高盛已将其2026财年每股收益预期上调至10.87美元,较市场一致预期高出约6%,并认为市场仍低估了其在AI网络与定制计算领域的长期盈利能力。</p> <p id="48PN1APP">AMD和亚马逊Trainium当前仍处于追赶阶段,但高盛也指出,<strong>AMD的机架级方案存在后发优势的可能性</strong>。预计在2026年末,基于MI455X的Helios机架方案有望在部分训练与推理场景中实现约70%的推理成本下降,值得持续跟踪。</p> <p id="48PN1APQ">更重要的是,这份研报给出的并非“赢家通吃”的结论,而是一幅逐渐清晰的产业分工图景:<strong>GPU继续主导训练与通用算力市场,而定制ASIC在规模化、可预测的推理负载中不断渗透</strong>。在这一过程中,英伟达的CUDA生态与系统级研发投入仍构成坚实护城河,但其估值逻辑也将持续接受“推理成本下行”的现实检验。</p> <p id="48PN1APR">当AI真正进入“每一个token都要算回报”的阶段,算力竞争终究要回到经济学本身。TPU成本暴降70%,并不是一次简单的技术追赶,而是一次对AI商业模式可行性的关键压力测试。而这,或许正是GPU与ASIC之争背后,市场最应认真对待的信号。</p>
Copyright ® 版权 所有:吉林日报
违法和不良信息举报邮箱:dajilinwang@163.com 违法和不良信息举报: 0431-88600010
ICP备案号:吉ICP备18006035号 网络经营许可证号:吉B-2-4-20100020
地址:长春市高新技术产业开发区火炬路1518号 爆料电话:0431-88601901