3nm工艺+高带宽内存
据内部消息,该芯片采用台积电3纳米制程,配备与英伟达同级的HBM(高带宽内存),脉动阵列架构使其在训练大模型时效率提升40%以上。这意味着未来训练GPT-5的时间或缩短一半。
技术细节:脉动阵列通过数据流水线化处理,可最大限度减少内存访问延迟,而HBM则让芯片在单位时间内吞吐量暴增,这正是大模型训练的命门所在。
“谷歌大脑”团队操刀
该芯片的设计团队由前谷歌TPU核心成员Richard Ho领衔,过去半年团队规模翻倍至40人,并获博通技术支持。
这种“硅谷顶尖工程师+芯片巨头”的组合,让OpenAI仅用18个月就走完其他公司5年的研发路。
该芯片单次流片成本约数千万美元,但行业人士估算,包含软件生态构建的总投入或达5亿美元。这相当于微软2025年AI预算的0.6%,不过却可能撬动千亿美元市场。
英伟达"算力霸权"正被瓦解
OpenAI自研芯片最直接的目标,是摆脱对英伟达80%的供应依赖。若2026年量产成功,其数据中心采购成本将直降30%,这对每年烧钱数十亿美元训练模型的OpenAI堪称救命稻草。
微软、Meta等巨头自研芯片屡屡受挫,OpenAI若成功将刺激更多企业加入混战,英伟达“一家独大”格局或终结。
就在OpenAI亮剑之际,中国AI公司DeepSeek此前凭借算法优化,用1/10算力跑出同等性能模型,轰动全球。
芯片行业和市场陷入深思:未来究竟需要更多芯片,还是更聪明的算法?
有分析师指出,算法优化可能让全球AI芯片需求减少20%,但OpenAI的选择表明,顶级玩家仍在押注“硬件军备竞赛”。
“芯片-模型”协同进化论
OpenAI工程师透露,该芯片将支持模型参数规模突破百万亿级,且计划每12个月迭代一次。这意味着未来的GPT-6可能直接运行在专为其定制的“大脑”上,形成“芯片设计→模型升级→芯片再设计”的正向循环。
芯片量产时间点(2026年)恰与拜登政府“国家AI基础设施计划”重合。值得玩味的是,OpenAI已参与特朗普提出的5000亿“星际之门”计划,这场跨越党派的AI霸权争夺,正在芯片制造环节悄然升级。
不过当OpenAI用芯片重新定义AI生产力时,很多人早已通过DeepSeek嗅到机会——用AI工具批量生成爆文、视频脚本、商业运营、代码生成,解放生产力,甚至开始变现。