概述
本期《OpenAI Podcast》由安德鲁·梅恩主持,邀请了OpenAI的萨姆·奥特曼(Sam Altman)、格雷格·布罗克曼(Greg Brockman),以及博通的霍克·谭(Hock Tan)、查理·卡瓦斯(Charlie Kawwas),详尽探讨了OpenAI与博通合作共建AI定制芯片与系统的由来、进展、战略意义,以及两家领先科技公司如何通过深度协作推动AI基础设施与前沿模型落地。节目核心观点在于:仅通过芯片突破已无法满足AI时代的运算需求,纵向一体化与生态协作才是实现超大规模AI与AGI(通用人工智能)必由之路,同时也预示着AI将逐步变成全人类的关键基础设施。
OpenAI x Broadcom — The OpenAI Podcast Ep. 8
合作宣发与AI基础设施扩展
- OpenAI与博通已合作约18个月,联合设计针对AI推理与训练需求的定制芯片,近期进一步深化为系统级研发。这不仅关乎单一芯片,更是涵盖从晶体管设计、芯片制造、系统集成、网络架构到最终应用的完整垂直整合(vertical integration)。
- 计划于明年末集成并大规模部署这套系统,目标实现10吉瓦(10GW)级算力基础设施。这一容量远超以往的数据中心规模,被主持人与嘉宾多次类比为“工业史上最大规模的联合项目”,堪比工业革命、公路铁路建设、互联网普及等人类历史的基建转折。
- 过去业界依赖通用芯片(如GPU),虽有革新但难以做到为特定AI负载量身定制。此次合作最大的意义在于:OpenAI深度了解自有AI模型(frontier models)的演化路径,能够与芯片供应商协作共创,真正为推理、训练、记忆访问等差异化负载量体裁定制硬件乃至全面系统优化。
- OpenAI与博通的合作模式,也成为全球计算产业新生态的范例——“分工合作、生态开放、标准互通”成为推动算力基建突破的关键。两家公司表达,未来的AI不仅仅服务大企业,而是致力于让80亿地球人口“都有自己的智能体和专属算力”。
定制芯片系统的创新与纵向整合
- 合作起因源于OpenAI对AI算力需求的重新评估。传统模式下,只需不断购买更多GPU就能应对需求。然而随着前沿大模型(如GPT、Sora等)能力与用户量级提升,单纯依赖市售通用芯片已不能满足“推理成本极低、响应极快、支持亿级并发智能体”这类新场景。
- OpenAI与博通共同设计芯片与整体系统,可以从晶体管层级优化每一环节,包括:
- 专为AI推理任务加强存储带宽与延迟(memory access)
- 针对训练任务提升浮点计算峰值(TFLOPs)
- 网络互联采用100Tbps(太比特每秒)光学交换新技术,把多个芯片堆叠(3D封装/Chip Stacking),并通过模块化设计(如Lego积木般)灵活组装不同用途加速器(XPU/Accelerator)
- 定制的系统方案可针对每一代大模型(GPT-5、GPT-6、GPT-7等)动态调整架构,实现从底层能效到整体系统的连续跃迁
- 这一系列创新不仅提升了硬件算力与能效,也推动了行业透明开放标准制定,加速整个AI基础设施与生态进步。
AI算力需求爆炸性增长与未来展望
- 几位核心人物多次提及AI应用场景对算力需求的“刚性增长”:每当模型能力提升、成本降低,社会对AI的需求会几何级数暴增(即使优化算力10倍,需求可能提升20倍)。
- OpenAI举例:目前2GW算力已能服务全球10%用户(API、Sora、ChatGPT等),但未来需求远大于此。哪怕今日有30GW现有模型的算力,也极易被更广泛的AI服务创新消耗殆尽。
- AI被比作“经济生产力、生活品质提升的最根本驱动力”。只有推动算力普及、基础设施开放,才能让“每个人都成为智力增强者”,并带动各行各业的效率革命。
- 合作双方强调,AI产业的进步是极为长期的过程,和铁路、互联网一样或将持续几十年。定制化、纵向一体化的协作方式,为接下来的每一代智能体提供“演进中的硬件土壤”,推动AGI落地。
- 经济学意义上,每次AI模型能力升级与推理成本下降,都会释放巨大的“经济剩余与社会需求”。这在写代码、文档自动化、视频生成、个人助手等领域尤为明显。
- OpenAI与博通认为,最终目标是每个人每天24小时都能拥有专属AI助手(agent),而行业正处于从“智能算力稀缺”逐步迈向“算力充裕”(compute abundance)的转折点。