在北京时间12月7日凌晨举行的AMD Advancing AI大会上,AMD向世人揭示了Instinct MI300系列加速器的性能细节和应用案例,这标志着人工智能和高性能计算迈进了一个新时代。人工智能从20世纪50年代诞生至今,经历了70余年的发展,已经渗透到生活与工作的多个层面,而很多时候我们几乎没感觉到它的存在。从IBM深蓝击败国际象棋大师,到AlphaGo与李世石和柯洁的围棋比赛,再到最近的ChatGPT所掀起的大语言模型和生成式AI热潮,人工智能不断以各种方式影响着世界。
尽管当前的大语言模型领域似乎有些过热,但从较长远的技术和市场前景上看,人工智能无疑将成为未来的趋势和庞大的市场,尤其是对算力的需求呈现爆炸式增长。AMD预计,全球数据中心AI加速器的市场规模将从2023年的约300亿美元迅速上升,每年的复合增长率有望超过50%,到2027年市场价值料将超过1500亿美元。基于如此乐观的市场预测,AMD已将2023年和2027年的数据中心AI加速器市场规模预期上调至400亿美元及4500亿美元,年复合增长率超过70%。
AMD作为解决方案提供商,在满足AI特别是生成式AI对于超强算力的需求方面独树一帜。在CPU领域,AMD拥有世界领先的EPYC处理器,在GPU领域则拥有不断增长的Instinct加速器序列,而其网络技术则包括Alveo和Pensando。此外,AMD的ROCm开发平台在软件层面上提供支持,形成了一个完整的、有机协作的解决方案体系。
在早期,AMD的计算加速器大多基于与游戏显卡类似的RDNA架构,这在应对AI和高性能计算需求时显得力不从心。针对这一问题,AMD开发出了专为计算而生的CDNA架构。Instinct MI100系列作为AMD的首款专注FP32/FP64 HPC负载加速的GPU,奠定了基础;Instinct MI200系列则在此基础上迭代演化,快速在超算系统中占据一席之地。如今,AMD发力推出的第三代Instinct MI300系列基于新的CDNA3架构,不仅在数据中心APU和专用GPU两条路线上实现突破,更全面增强了统一内存、AI性能和节点网络等方面的性能,同时也通过先进的封装技术和更高的能效比,力图满足生成式AI对算力的极致追求。
随着AI技术的不断成熟和需求的快速增长,AMD MI300加速器无疑将作为AI计算新纪元的重要驱动器,引领行业走向未来更高的目标。