人工智能的竞争,本质是算力、数据与算法“铁三角”的竞争。中国在这场竞争中,经历了从“大力出奇迹”到“精益求精”的转变,在基础研究层面实现了系统性突破。
算力层面,实现了从“卡脖子”到“软硬协同”的突围。国外凭借英伟达GPU硬件与CUDA(统一计算设备架构)构筑的技术“护城河”,牢牢掌控全球高端训练算力的制高点。客观来看,我国与国外存在硬件代差,然而,我国在2025年展现出了强大的战略韧性,以华为昇腾(Ascend)为代表的国产算力芯片和CANN(神经网络计算架构)软件生态,通过“芯片+集群+软件栈”的系统工程,已在政务、金融等核心领域推理场景实现广泛替代,在部分典型场景训练任务上达到可用乃至好用的水平,如DeepSeek-R2在昇腾910B集群训练、微调。
我国的独特优势,在于探索出一条“软件定义算力、算法驱动效能、人工智能+赋能场景”的创新路径。DeepSeek-R1的成功证明:通过算法优化(如MoE架构、稀疏注意力机制),可以在既定算力约束下显著提升模型效能上限,为算力受限条件下的大模型训练提供了可验证路径。这种“低资源消耗、工程能力引领、高智力产出”的研究方向,正是我国对全球AI基础研究的最大贡献。
数据层面,我国正从“规模红利”迈向“合成质量”。数据是AI的“燃料”,燃料的质量决定引擎的效能。国外依托其全球互联网主导地位,在高质量英文语料、科学文献及代码库积累上拥有天然优势。我国则拥有全球最庞大的数字化应用场景与用户群体,但在面向大模型训练的优质中文语料库构建上曾面临结构性挑战。
破局之道在于技术创新和工程突破。过去一年,我国科研力量在“合成数据”与“数据课程学习”领域取得引领性进展。针对中文数据质量不均的痛点,国内团队开发了先进的数据清洗与合成管线,通过AI生成教科书级的高质量数据反哺训练,显著提升了数据效率与模型性能,使我国在该技术方向上跻身全球第一梯队。美国麻省理工学院与开源平台Hugging Face的联合报告显示,2025年中国开源模型全球下载量占比17.1%,反超美国的15.8%,位居全球第一。这进一步证实,我国将形成引领全球人工智能工程创新的中国方阵,为世界人工智能的健康发展作出更大贡献。
算法与模型层面,告别“套壳”,确定“中国流派”。两年前,业界诟病我国AI多为Llama架构的微调,如今这一论调已成历史。DeepSeek-V3/R1、阿里Qwen2.5等模型,在网络架构、多头隐式注意力机制(MLA)、混合专家(MoE)负载均衡等,对生成式大语言模型架构变革方面作出了原创性贡献。我国在推理效率优化和长文本处理上展现了惊人的创新力。
相比国外模型一味追求模型规模化法则的做法,我国研究更侧重于“性价比”,即如何用更小的参数、更少的显存,实现同等的效果,这使得国产模型在端侧部署和中小企业应用中极具竞争力。
综观“铁三角”的竞争,我国已在算力基建规模、算法效能优化及数据治理技术上初步形成独特优势。当然,客观差距依然存在:国产单卡性能与互联带宽仍落后于英伟达H200/B200等前沿产品,大规模万卡集群的稳定性仍需持续攻坚,但我国在算力基建规模与系统集成能力上已形成独特优势,为后续突破奠定了坚实基础。