国产GPU展示强劲实力,摩尔线程树立新标杆


6月14日消息,摩尔线程官方宣布,他们于2024年5月份正式与智谱AI启动了一轮新的GPU大模型适配和性能测试。据透露,这次的测试涵盖了大模型推理以及基于夸娥(KUAE)千卡智算集群的大模型预训练。使用的大模型来源于智谱AI的基座大模型及其开源版本,目的是评估摩尔线程自主研发的全功能GPU的表现。

测试结果令人振奋。摩尔线程的GPU在推理方面显著优于基准对比产品RTX 3090和RTX 4090。具体来说,在所有测试用例中,摩尔线程的GPU均超过了RTX 3090;在处理多个批次的情况下,其表现也优于RTX 4090。在训练方面,摩尔线程的夸娥千卡智算集群表现同样优异。与A100集群相比,其训练精度误差在1%以内,集群性能扩展系数超过90%,模型算力利用率(MFU)与A100集群相当。

这一结果对中国的大模型技术生态具有深远的影响。首先,它代表了技术自主性的新突破。摩尔线程的千卡智算集群成功应用于ChatGLM预训练,证明了摩尔线程能够让大模型的训练和推理在全国产可控的算力底座上运行,从而增强技术自主性和保障信息安全。

其次,这一进展有助于打破算力瓶颈。根据尺度定律(Scaling laws),有限的算力供应可能成为制约大模型发展的关键问题。而摩尔线程的全功能GPU能够提高大模型的迭代速度和自主研发水平,从根本上推动中国大模型的发展。

再次,摩尔线程与智谱AI卓有成效的适配和测试合作,有利于实现软硬件的深度融合和协同创新。通过这种合作,可进一步开拓领域创新空间,为大模型的多元化发展提供新的可能性。

最后,摩尔线程的先进AGI算力底座不仅可以兼容并适配全球主流AI软件生态,节省了大量迁移成本,而且在单位算力的总体拥有成本上也表现出较为明显的优势。这能够有效降低大模型产品的研发成本,提高行业的经济效益。

值得一提的是,智谱AI早在2022年8月已经开源了GLM-130B模型,2023年又推出了千亿基座对话模型ChatGLM及其开源版本ChatGLM-6B。最近,摩尔线程陆续公布了与多家国内AI企业在大模型训练和推理方面的合作。这些合作包括:

– 成为第一家接入无问芯穹,适配无穹Infini-AI大模型开发与服务平台,并完成了LLama2 700亿参数大模型的训练测试、MT-infini-3B 3B(30亿参数)规模大模型的实训;
– 完成了憨猴集团70亿、340亿和700亿参数量级大模型的分布式训练;
– 完成了与滴普企业大模型Deepexi v1.0的训练和推理适配;
– 完成了羽人科技70亿参数大语言模型YuRen-7b的训练测试;
– 完成了师者AI 70亿参数全学科教育大模型的高强度训练测试。

摩尔线程的诸多里程碑不仅展示了其在高性能计算领域的领先地位,也为中国在全球AI大模型领域树立了一个新的标杆。未来,摩尔线程将继续致力于技术创新和合作,共同推动人工智能技术的快速发展。

相关新闻