在近日的互动平台上,科大讯飞宣布了一个振奋人心的消息:经过几年的努力和投资,他们在星火大模型的训练和推理效率上取得了显著进展。与直接依赖英伟达显卡的传统方法不同,科大讯飞选择了更具挑战性的全国产算力方案。在资源有限的条件下,他们的团队与华为合作,成功克服了多个技术难关。
从 2023 年 5 月开始,科大讯飞与华为的合作使得多个技术瓶颈得以打破,包括万卡高速互联组网、计算通信的优化,以及高吞吐量推理的实现。这些努力的结果是,科大讯飞的通用大模型和深度推理模型的训练效率已从最初的 30%-50% 提升至 85%-95% 之间,表现出色,几乎可以与英伟达的 A100 显卡相媲美。
而在 2025 年,科大讯飞进一步迎接挑战,成功解决了国产算力训练中的两大难题。一方面,他们提升了长思维链强化学习的训练效率,将其从对标 A800 的 30% 提升至 84% 以上;另一方面,他们还在 MoE 模型的全链路训练效率上取得突破,训练效率从今年 3 月的 30% 飙升至 93%。这些成果不仅标志着国产算力技术的重大进步,还为科大讯飞在这一领域打下了坚实的基础。
随着国产算力技术的不断提升,科大讯飞的训练成本预计将会大幅下降。这将为公司未来的发展带来更多的可能性,也为中国科技产业的自主创新树立了榜样。
总之,科大讯飞的这些成就不仅展示了他们在大模型训练领域的技术实力,也为国产算力的未来发展提供了强有力的信心支持。