7月18日消息,摩尔线程正式宣布,与清华系AI系统软件公司清程极智达成战略合作,共同推动国产大规模GPU智算集群的产业化进程。这一合作旨在加速AI算力生态系统的发展,为大模型行业提供更强大、灵活且高效的基础设施支持。
摩尔线程近日公布了其从千卡到万卡的全功能GPU智算集群扩展方案,而此次合作正是为万卡级超大规模GPU智算集群的开发与优化而设立。清程极智作为一家致力于构建高效人工智能系统软件的公司,其核心产品已经全面适配摩尔线程自研的MUSA平台。
清程极智在人工智能领域的专业技术为这一战略合作提供了坚实的基础。他们自主研发的智能编译器IntelliGen和高效并行训练系统FastMoE,显著加速了Transformer类模型和混合专家MoE模型的处理速度,其中部分模型性能提升可达15-20倍。此次合作无疑是一次双方优势互补的典范,将进一步推动国产AI算力的高效发展。
与此同时,摩尔线程也宣布与北京智源人工智能研究院合作完成基于Triton语言的高性能算子库FlagGems的适配工作,这项合作仅用了一个多星期就成功验证了近60个算子的功能,其精度符合交付标准,并实现了对Bert-large模型的全面支持。
摩尔线程研发团队经过深入的调研和论证,确立了Triton编译器在MUSA架构上的完整适配方案。这一方案确保了开发者在使用摩尔线程全功能GPU进行Triton开发算子时,能够体验到与CUDA框架一致的无缝迁移效果。在MUSA架构上,FlagGems算子库展现出了接近手写算子的计算性能,并且性能还在不断优化,这极大地提升了开源大模型在摩尔线程全功能GPU上的部署速度。
北京智源人工智能研究院于2018年11月成立,目标是聚焦AI原始创新和核心技术发展。该研究院通过推动AI理论、方法、工具、系统和应用的突破,支持北京成为全球AI学术、技术和创新的源头。智源研究院的FlagGems算子库使用Triton编程语言实现,旨在为大语言模型提供可应用于PyTorch框架的一系列高性能算子,以加速模型的推理和训练,降低新算法的开发门槛。它基于Triton编程语言的易用性和标准编译器接口,为多种芯片提供了高适配性和高性能的算子解决方案,推动基于Triton的开源软硬件生态系统建设。
通过此次与清程极智和北京智源人工智能研究院的合作,摩尔线程不仅展示了其在高性能计算领域的强劲实力,更加速了国产AI算力的产业化进程,提升了大模型行业整体的技术水平和应用效率。未来,摩尔线程将继续致力于推动AI算力生态的快速发展,为行业提供更加优质、可靠的基础设施支持。