近期有知情人士对外媒透露,大陆蚂蚁集团正使用中国本土制造的半导体来开发AI模型训练技术,这将使成本降低20%。而且令人意外的是,这种来自阿里巴巴与华方的晶片採用专家混合(Mixture of Experts,MoE)机器学习方 ...
从产品背景来看,蚂蚁集团自成立以来投入巨资于人工智能技术的研发,始终致力于在金融、医疗等领域应用前沿科技。目前,蚂蚁集团在全球金融科技领域具有举足轻重的地位,尤其是在移动支付和数字金融技术上,其市场份额和品牌影响力毋庸置疑。根据2024年市场调查数据,蚂蚁集团在数字金融领域的市场占有率接近30%,在推动国内AI技术应用方面的投入也越来越受到业界关注。
知情人士称,蚂蚁集团使用了包括来自 阿里巴巴和华为的芯片 ,采用所谓的“专家混合机器学习”方法来训练模型,测试结果取得了与采用 英伟达H800 等芯片训练相似的结果。
具体来说,蚂蚁集团借助阿里巴巴、华为等国内厂商的AI/GPGPU芯片,采用五种不同的硬件配置,完成了高达9万亿token的预训练,最终所需的训练成本从635万元降至508万元。通过这种创新的动态参数分配、混合精度调度和自适应容错恢复策略,蚂蚁团队将高效训练的可能性扩大到了更加低端的计算设备上。
报道认为,这凸显了中国公司试图使用本地芯片来替代最先进的英伟达半导体。蚂蚁集团本月份发布了一份研究报告,称其模型在部分基准测试中超过了 Meta,如果按预期工作,蚂蚁的平台可能为中国 AI 发展迈出又一个新的步伐。
而这对于实时生成任务(如聊天机器人、文本生成等)尤为重要。 说人话就是,FlashMLA 是一个能让 LLM 模型在 H800 上跑得更快、更高效的优化方案,尤其适用于高性能 AI 任务。
就在刚刚,DeepSeek 第一天的开源项目 FlashMLA 正式发布。 DeepSeek 官方在 X 平台发文称: 「很荣幸能分享 FlashMLA —— 我们专为 Hopper GPU 优化的高效 MLA ...
快科技3月24日消息,近日,据媒体报道,有知情人士透露,蚂蚁集团正使用中国制造的半导体来开发AI模型训练技术,这将使成本降低20%。
蚂蚁集团于2025年3月24日披露其AI技术研发进展,宣布基于国产芯片成功开发混合专家模型(MoE)训练技术,使3000亿参数大模型的训练成本降低约20%。
知情人士称,蚂蚁集团使用了包括来自阿里巴巴和华为的芯片,采用所谓的“专家混合机器学习”方法来训练模型,测试结果取得了与采用英伟达H800等芯片训练相似的结果。 据公开资料显示,”英伟达H800”是英伟达研发的芯片,专为高性能计算和人工智能训练设计的高端GPU芯片,广泛应用于数据中心和AI模型训练场景。