NVIDIA Grace™ CPU 超级芯片由两个 CPU 芯片组成,它们之间通过NVlink®-C2C互连在一起。NVlink®-C2C 是一种新型的高速、低延迟、芯片到芯片的互连技术。
GraceCPU 超级芯片是去年NVIDIA发布的首款由 CPU-GPU 集成的“GraceHopper 超级芯片”的模块,它将与基于 NVIDIA Hopper™ 架构的 GPU一同应用于大型 HPC 和AI应用。这两款超级芯片采用相同的底层 CPU 架构及NVlink-C2C 互连。
NVIDIA创始人兼首席执行官黄仁勋表示:“一种新型的数据中心已经出现,它就是能对海量数据进行处理和提炼以实现智能的 AI 工厂。GraceCPU 超级芯片能够在一个芯片中提供最高的性能、内存带宽以及 NVIDIA 软件平台,将作为‘全球 AI 基础设施的CPU’ 大放异彩。”
隆重推出NVIDIA CPU 平台
Grace CPU 超级芯片专为提供最高的性能而打造,能够在单个插座(socket)中容纳144 个Arm 核心,在SPECrate®2017_int_base 基准测试中的模拟性能达到业界领先的 740 分(1)。根据 NVIDIA 实验室使用同类编译器估算,这一结果较当前 DGX™ A100 搭载的双CPU 相比高1.5 倍以上。(2)
GraceCPU 超级芯片还提供业界领先的能效和内存带宽,其依托带有纠错码的LPDDR5x 内存组成的创新的内存子系统,可实现速度和功耗的最佳平衡。LPDDR5x 内存子系统提供两倍于传统DDR5设计的带宽,可达到每秒1 TB ,同时功耗也大幅降低,CPU加内存整体功耗仅500瓦。
GraceCPU 超级芯片基于最新的数据中心架构 Arm®v9,具备最高的单线程核心性能,并支持 Arm 新一代矢量扩展,其将为诸多应用带来直接收益。
GraceCPU 超级芯片可以运行所有的 NVIDIA 计算软件栈,包括NVIDIA RTX™、NVIDIAHPC、NVIDIAAI 和Omniverse。GraceCPU 超级芯片结合NVIDIA ConnectX®-7 网卡,能够灵活地配置到服务器中 —— 或作为独立的纯CPU 系统,或作为GPU 加速服务器,搭载一块、两块、四块或八块基于Hopper 的GPU ,从而使客户通过只维护一套软件栈就能针对自身特定的工作负载做好性能优化。
专为AI、HPC、云计算和超大规模应用而设计
凭借最高的性能、内存带宽、能效及可配置性,Grace CPU 超级芯片在要求最为严苛的高性能计算、AI、数据分析、科学计算和超大规模计算应用方面将会脱颖而出。
GraceCPU 超级芯片的 144 个核心和1TB/s 的内存带宽将为基于 CPU 的高性能计算应用提供前所未有的性能。HPC 应用为计算密集型,需要最高性能的核心、最高的内存带宽以及最合适的每核心内存容量来加速产出。
NVIDIA正在携手HPC 、超级计算、超大规模和云计算领域的领先客户,围绕Grace CPU 超级芯片展开合作。Grace CPU 超级芯片和Grace Hopper 超级芯片预计将于2023 年上半年开始供货。