首页 > 新闻 > 社会 >

摩尔线程千卡GPU集群助力,憨侯完成700亿参数大模型训练!

发布时间:2024-07-07 06:17:45来源:网络转载
集团与摩尔线程的合作与成就

合作背景与战略意义
憨猴集团与摩尔线程联合宣布,基于摩尔线程的夸娥(KUAE)千卡智算集群,成功完成了700亿参数大模型分布式训练。这是憨猴集团首次使用国产AI算力完成大模型训练测试,为后续服务于国有企业与运营商等关键领域提供了更加坚实可靠的国产AI训练平台和成本效益更优的国产算力解决方案。双方还签署了战略合作协议,聚焦AI大模型和算力领域,通过深度融合,共同探索国产AI算力的新应用场景与落地实践,加速数智化产业的全面升级。

夸娥智算集群的特点与优势
夸娥智算 集群作为国产全功能GPU千卡千亿大模型预训练平台,在稳定性、高效能、易用性和高算力利用率方面展现了先进性。它基于双路八卡GPU服务器MCCXD800,每个节点有八块MTTS4000GPU加速卡、两颗Intel第四代至强处理器、16x64GB内存、4x3.84TBNVMeSSD,以及双路400GbIB、四路25Gb以太网网络,一体化交付解决大规模GPU算力的建设和运营管理问题。

摩尔线程夸娥千卡集群的技术突破与应用前景
摩尔线程是第一家接入无问芯穹并成功完成千卡级别大模型训练的国产GPU公司,夸娥千卡集群与无穹Infini-AI顺利完成了系统级融合适配,并完成了LLama2700亿参数大模型的训练测试。此外,夸娥千卡集群在精度、性能、易用性和算力利用率上表现出色,且在实训中实现了长时间稳定训练不中断,已可以为千亿参数级别大模型训练提供持续高效的高性能算力支持。

摩尔线程与其他公司的竞争态势
在大模型训练方面,摩尔线程现已支持包括LLaMA、GLM、Aquila、Baichuan、GPT、Bloom、玉言等数十家主流大模型的训练与微调。使用夸娥(KUAE)千卡集群进行700B至130B参数规模的大模型训练时,线性加速比可达到91%, 并且算力利用率保持稳定。这表明摩尔线程在国内AI芯片领域处于领军地位,并且其全栈AI产品线能够为广泛的科技生态合作伙伴提供强大的计算加速能力。

摩尔线程在未来的发展方向
摩尔线程致力于打造为下一代互联网提供多元算力的元计算平台,并基于全功能GPU构建了从芯片到智算中心的先进算力基础设施,以及从软件加速库到大模型分布式训练系统的全栈软件服务,可以为我国金融行业的数智化转型提供算力加速。这意味着摩尔线程不仅关注于技术研发,还积极寻求在各行业智能变革中的应用与普及。

本文链接:http://www.honggongshan.com/content-11-698-1.html

免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。