在 2025 年 OCP 全球峰会上,Arm 重点展示了一场变革:基于小芯片(Chiplet)的创新方案,通过 Arm 计算子系统(CSS)与小芯片系统架构(CSA),为芯片供应商打开了无需超大规模企业资源即可构建 AI 优化设计的大门。
从单体芯片到模块化 AI 硅片
多年来,全定制 SoC 主导着 AI 基础设施的高端市场:从计算模块到内存控制器、互连结构和加速器,全部集成在单一单核裸片上。这种设计虽提供了紧密控制和性能优势,但也伴随着沉重代价:
随着工艺节点逼近极限,功耗和散热成本飙升;
大型异构模块的验证与确认复杂度剧增;
设计、工具开发和制造的前置时间漫长。
小芯片计算架构的出现改变了这一局面。通过将系统分解为更小的专用裸片(计算、内存、I/O、加速器等),SoC 架构师和设计师得以混合搭配组件,仅对所需部分进行扩展,并加速迭代。但此前,这种模块化面临自身障碍:设计碎片化、缺乏标准化互连、IP 复用挑战,以及高昂的前期风险和成本。
破局之道:Arm 的 CSS 与 CSA 模型
Arm 通过两大基础框架填补了这些空白:
CSS(计算子系统):预验证的高性能 IP 构建模块(计算核心、AI 加速器、内存子系统),其设计、验证和性能表现已在真实或仿真硅片中得到验证。使用 CSS 意味着设计者无需从零开发每个模块或重复验证成熟功能,而是直接利用经过优化的现有组件。
CSA(小芯片系统架构):一种开放的、基于标准的架构,定义了不同厂商小芯片的互连、通信和集成方式。CSA 在电气、物理和协议层面确保兼容性,使来自不同来源的 IP(如合作伙伴 A 的加速器与代工厂 B 的内存裸片)能在共享平台上可靠互操作。
CSS 与 CSA 的结合,使 Socionext、联发科等芯片供应商能够构建定制化 AI 优化芯片,性能可媲美超大规模企业设计,同时具备更低风险、更快周期和更高灵活性。这些供应商可根据视觉模型、推理引擎、多租户实例等特定工作负载需求,自由选择计算模块、加速器、内存类型和集成路径,而非受限于单体设计的权衡。
OCP 加速行业变革的角色
开放计算项目(OCP)长期以来是开放硬件协作、模块化和效率的中心,这些原则与小芯片革命高度契合。在 2025 年 OCP 全球峰会上,Arm 不仅展示了理论架构,更通过实际案例演示了 CSS 与 CSA 组合如何被云服务提供商(CSP)、OEM 和芯片厂商用于构建面向未来的 AI 基础设施。
OCP 合作伙伴已看到的关键优势包括:
定制灵活性:针对特定区域的功耗、散热或可靠性限制定制硅片;
降低总体拥有成本(TCO):通过供应链多元化,可从多家代工厂采购小芯片或裸片,随规模扩大混合搭配,而非依赖单一单体供应商;
加速上市周期:预验证的 CSS 模块和标准化互连省去大量设计工作,支持更快速的原型设计、测试和部署。
商业影响与未来展望
对于 AI 基础设施构建者(无论是 CSP、OEM 还是刚涉足 AI 领域的芯片企业),CSS 与 CSA 方案带来切实价值:
能效比提升:计算和内存被置于最高效的位置,避免资源浪费;
降低设计风险:复用成熟 IP 并依赖标准互连;
供应链弹性:模块化使切换供应商、扩大裸片生产或选择首选代工厂节点更可行;
速度优势:设计周期缩短,支持 AI 模型、功能集和部署的更快迭代。
这不仅是硅片架构的革新,更是 AI 时代敏捷商业的杠杆。
深入了解
在 2025 年 OCP 全球峰会上,Arm 将举办会议和技术简报,展示 CSS 与 CSA 的实际应用。无论您是芯片设计师、基础设施架构师还是探索 AI 硬件未来的云服务提供商,都可借此机会突破现有约束,探索更多可能。
如需深入了解推动这一变革的工具和工作流程,可探索开发者如何使用 Arm Neoverse CSS V3 平台加速流片前验证和固件开发:
在 Arm Neoverse CSS V3 上开发和验证流片前固件
在 Neoverse RD-V3 上仿真 OpenBMC 和 UEFI 流片前环境
这些资源展示了在硅片进入晶圆厂之前,早期软件启动、固件验证和系统原型设计已如何实现。
Arm 的使命清晰可见:让所有企业(而非仅超大规模企业)都能获得定制化 AI 硅片,因为数据中心的未来取决于各规模企业的创新。
























网站客服
粤公网安备 44030402000946号