NVIDIA发布AI超级芯片B200,晶体管数量达惊人2080亿


在人工智能技术迅猛发展的今天,全球芯片领导者NVIDIA于近期在其主办的GTC2024大会上抛出了重磅炸弹——Blackwell架构下的B200 GPU。这一面向下一代数据中心和AI应用设计的芯片将于今年晚些时候开始发货,预示着计算能力的一次巨大飞跃。

Blackwell架构以杰出数学家David Harold Blackwell的名字命名。这种架构下的B200 GPU使用了台积电的最新N4P工艺,封装了惊人的2080亿个晶体管,是前代产品H100/H200的两倍以上。该量级的晶体管数量对于扩展AI性能至关重要,NVIDIA CEO黄仁勋宣布B200的AI性能高达20 PFlops,在全新开发的FP4数字格式下,性能可达高达40 PFlops,相比前代产品实现了多达5倍的提升。

B200 GPU的设计同样引人注目。它由两个密切连接的GPU芯片构成,这两个芯片通过NV-HBI高带宽接口以惊人的10 TB/s速率连接,实现了统一CUDA GPU的强大性能。内存方面,B200搭载了192GB的最新HBM3e内存,带宽高达8 TB/s,相较于NVIDIA自家先前的H100 SXM芯片,内存容量和带宽都有显著提升。

与此同时,NVIDIA还推出了Grace Blackwell GB200超级芯片及HGX B200、HGX B100服务器解决方案,旨在满足不同级别的服务需求。GB200超级芯片整合了双B200 GPU及Grace CPU,其TDP配置高达2700W,预计将在AI推理性能上比H100提升30倍,而成本和能耗仅是原来的1/25。

在互联技术方面,NVIDIA宣布了第五代NVLink以及NVLink Switch 7.2T的推出。新一代NVLink设计针对多节点GPU互连带宽瓶颈提供了解决方案,提供了1.8 TB/s的全对全双向带宽,并支持576 GPU NVLink域的超高连接密度。

针对大型企业需要的服务,NVIDIA亦提供了GB200 NVL72服务器,这是一个包含36个CPU和72个Blackwell GPU的机架式解决方案,通过1U服务器实现整合,提供了强大的AI训练性能和推理性能,以及完善的一体化水冷散热方案。

面对未来AI技术和大数据处理的挑战,NVIDIA此次发布的B200以及相关产品无疑奠定了领先市场的基石。亚马逊的AWS、DELL、Alphabet、Meta、微软、OpenAI、Oracle和TESLA已成为Blackwell系列的早期采用者,展现出市场对NVIDIA新一代AI芯片强劲的需求和信心。

相关新闻