魏少军:得算力者得天下,中国AI的自主“芯”征程
2025年11月25日,在全球CEO领袖峰会上,中国半导体行业协会IC设计分会理事长、清华大学集成电路学院教授魏少军博士围绕“中国算力半导体公司的发展之路”这一主题,指出中国在AI领域正走上一条不同的发展道路。同时,他也强调说,“创新是未来中国占领科技制高点、赢得发展主动权的唯一手段。必须聚焦颠覆性技术突破,打造中国自己的人工智能技术体系。”
人工智能的技术发展历程
人工智能的起源可追溯至20世纪40年代。1943年,美国神经生理学家沃伦·麦卡洛克和数学家沃尔特·皮茨通过对大脑神经元进行类比和建模,首次提出人工神经网络概念。这一创见奠定了计算机基本计算模型的基础,成为人工智能发展的重要起点。
1956年的达特茅斯会议标志着人工智能学科的正式诞生。与会科学家们首次提出“人工智能”这一概念,明确将“用机器模仿人类学习及其他方面的智能”作为研究目标。这次会议确立了人工智能研究的核心方向,开启了长达数十年的技术探索。
1981年,David Hunter Hubel因对视觉神经系统的研究获得诺贝尔奖,他的工作揭示了神经元网络如何通过连接整合信息,为深度神经网络的发展奠定生物学基础。随着网络结构不断加深、加宽、加厚,深度学习技术逐渐成熟,使计算机实现人类视觉认知能力成为可能。
人工智能三要素的演进与内涵
算法、数据和算力构成人工智能发展的三大核心要素。
算法作为生产方法,定义了如何将数据转化为智能产品;数据作为生产资料,是算法加工的对象;算力作为生产力,是执行算法的根本保障。魏少军教授表示,这三者的关系犹如传统生产中的生产方法、生产资料和生产力,共同推动着人工智能技术的进步。
在算法方面,传统人工智能算法主要解决特定问题,具有轻量级、可解释性强等特点,适用于小规模数据和专门任务。而大模型作为算法的子集,通过海量参数和复杂结构实现从“专用”到“通用”的跨越。
具体而言,传统算法参数规模通常在几千到百万级,依赖少量标注数据,适合垂直领域应用,资源消耗较低,且具有较好的可解释性。相比之下,大模型参数规模达十亿级以上,需要TB级未标注数据进行预训练,通过自学习提取通用特征,能够处理开放性问题,但需要分布式计算,训练成本高昂,且可解释性较差。
在数据方面,到2025年全球数据量预计将达到175ZB,数据爆炸式增长对计算能力提出更高要求。算力需求每年增长约10倍,充足的算力已成为人工智能发展的基础条件。从AlphaFold2蛋白质结构预测到GPT-3大模型训练,算力的提升使得原本需要数月的计算任务缩短至天级完成,“得算力者得天下”成为行业共识。
人工智能发展面临的算力挑战
AI的实现过程包含训练、推导和推断三个关键环节,这些环节模仿了人类思考的过程,但对计算资源的需求各不相同。
比如,训练过程需要大量数据驱动参数优化,计算成本高,耗时长达数天甚至数月;推导过程基于知识或逻辑规则进行推理,关注过程的可解释性;推断过程则要求低延迟、高效率,需要在毫秒级内给出预测结果。
当前的人工智能算法发展仍处于初级阶段。魏少军教授以LeNet、AlexNet、LRCN为代表的三个模型分别专注于手写体识别、图像分类和视频理解,这些模型的结构各异,说明目前尚无一种算法能够涵盖所有应用场景。而每种算法对应特定应用的特点,带来了巨大的计算挑战。
他还指出,为应对这些挑战,我们需要新型的智能计算引擎,其应具备三个特点:可编程能力以适应各类应用;计算和存储密集型以支持大规模数据处理;高能效以支持从云端到边缘的迁移。在此基础上,AI正在催生第六代电子计算机——AI超级计算机,其特点是超高速、高精度、海量参数处理能力。
人工智能芯片架构的演进与创新
在芯片发展方面,目前尚未出现能够替代半导体的其他技术。AI芯片的演进经历了多个阶段:从早期使用现有CPU、GPU、FPGA,到专用架构(DSA)如Google TPU、华为昇腾,再到GPGPU架构如英伟达H100、燧原DTU,最终向软件定义芯片(SDC)发展,实现高灵活性与高效率的平衡。
魏少军教授表示,当前全球AI发展已被英伟达的GPGPU架构和CUDA生态深度绑定,形成了“模型-架构-生态”三重依赖。这种绑定导致中国AI发展与美国技术深度关联,在当前的国际形势下带来重大挑战。
除此之外,中美在AI三要素上的比较优势正在发生变化。在数据方面,中国拥有规模优势;在算法方面,美国仍保持领先;在算力方面,中国仅为美国的约1/7。这种不平衡的发展格局使得中国在AI竞争中面临巨大压力。
中国算力芯片的自主创新之路
如今,中国在先进工艺(≤5nm)方面受到限制,必须寻求颠覆性技术创新。近存计算芯片技术通过3D混合键合将存储器与逻辑芯片集成,大幅提升能效。软件定义近存计算芯片则结合了软件定义芯片的灵活性和近存计算的高效能,实现了性能的突破。
基于国产14nm逻辑工艺加18nm DRAM工艺,通过软件定义近存计算芯片技术,可以实现比肩英伟达4nm芯片的性能。采用这种技术构建Z级(10²¹ Flops)超算中心,能耗和成本均可大幅降低。例如,与传统架构相比,软件定义近存计算芯片可实现能耗降低85%,成本仅为传统方案的57%。
结论与展望
智能化是人类社会当今最重要的发展特征,AI是“以人为本”的科技革命的最高阶段,是人类未来发展的战略制高点。半导体技术强力支撑着人工智能的发展,在可预见的未来,尚不会出现能够替代半导体的其他技术。
魏少军教授强调,必须清醒认识到,中美之间“和谐”相处的时代已经过去,今后最大的可能是全面竞争,最坏的情况是“脱钩”。中国必须紧紧抓住人工智能和半导体发展机遇,下决心摒弃美国的技术路线,摆脱对英伟达芯片的依赖。创新是未来中国占领科技制高点、赢得发展主动权的唯一手段。必须聚焦颠覆性技术突破,打造中国自己的人工智能技术体系。唯有这样,才能确保供应链的安全和产业链的韧性。
同时应当认识到,人工智能并非万能,其发展必须与本国文化、制度、语言紧密结合,才能实现真正的落地与应用。只有在自主创新的道路上坚定不移地前进,中国才能在人工智能的全球竞争中赢得主动,为人类科技进步作出应有贡献。