高性能计算与人工智能已成为推动现代科学研究和技术创新的关键引擎,深刻地改变着从基础物理到生命科学,乃至人文社科等各个领域的研究范式。如何构建、管理并有效利用强大的算力资源,培养新一代计算科学人才,是当前高校与科研机构面临的重要课题。
2025年11月26日下午4点,本学期第二期“周三茶座”有幸邀请到了北京大学计算中心系统管理室主任、北京大学高性能计算平台主任工程师樊春,主讲本次茶座:“高性能计算的前沿探索与实践”。物理学院李新征教授主持了本次茶座。

在本次茶座中,樊春主任系统回顾了北京大学高性能计算平台从无到有的发展历程,详细介绍了在人才培养、核心技术自主研发、算力平台建设与服务模式创新等方面的探索与实践,并展望了未来超算与智算融合发展的趋势。
北大高性能计算平台的历史与现状
讲座伊始,樊春主任回顾了北京大学计算中心悠久的历史。平台的建设可追溯至1963年,当时教育部将其争取到的两台103电子管计算机之一分配给北大,计算中心应运而生。70年代,北大成功研制出中国第一台百万次集成电路计算机150机,计算中心近40名员工参与了该机研制,首台150机以1400万人民币的价格出售给石油部作为勘探使用。150机一共生产了四台,有力服务了国家各个部门的计算需求。
2018年北京大学高性能计算校级公共平台成立并挂靠在计算中心。发展至今,北京大学的高性能计算平台已形成可观规模,拥有5套集群、总计788个计算节点,服务于全校117个院系单位的8870名用户,其中包括20余位两院院士。平台支持了超过745个科研项目,相关致谢论文高达2515篇。平台支持的成果中不乏亮点,例如支持了2022年冬奥会8K直播用到的视频编解码技术获得国家技术发明一等奖,以及将分子动力学模拟提升至近量子精度的方法(后续成立深度势能科技公司)等。
人才培养与学生超算队
除了提供科研算力,平台也高度重视计算科学人才的培养。樊春主任介绍了由计算中心组织的“北京大学高性能计算综合能力竞赛”,该竞赛以其趣味性,高难度和长达七天七夜的赛程著称,吸引了大量对计算充满热情的学生。优秀的参赛者会获得华为、小米、九坤等计算领域高新企业的关注。北京大学的各类科研团队也储备了核心力量。
樊春主任自豪地介绍,北大超算队在近几年的国际大学生超算竞赛中屡创佳绩,在2023-2025赛季的所有参与的国际大赛赛事中,取得了“非冠即亚”的优异成绩,综合表现位居世界第一。他还提及,曾在北大超算队前队员、后于伯克利大学的学生开发的vLLM推理引擎,已成为全球大模型推理框架的重要基石。今年北大超算队的队员,在实习期间帮助DeepSeek公司关键算子做出重大性能提升,今年毕业被DeepSeek录用。樊主任引用马斯克“美国AI领先是因为最好的中国人才在美国”的观点,并指出这一历史情况正在改变,如今最顶尖的中国学生越来越倾向于留在国内发展,为我国未来的AI竞争力注入了强大信心。

自主研发的核心技术与平台
面对国外技术限制与国内硬件多样化的挑战,樊春团队致力于核心技术的自主研发,构建了一套完整的超智算一体化平台解决方案。
首先,为解决大量国产AI硬件与多样化编程框架之间的适配难题(M个硬件与N个框架之间需要一一配对,共计M x N复杂度),团队与数学学院杨超教授一起牵头制定了“人工智能算子标准”。算子(Operator)可理解为构成复杂AI模型的基础运算单元。通过建立统一的中间标准层,将适配复杂度从M×N降低到M+N。该标准已形成一套包含基础数学、神经网络、机器学习在内的完整体系,得到了百度“飞桨”和华为等业界巨头的支持,并被上海人工智能实验室研发的DeepLink所使用。
在此服务好校内超算、智算用户的基础上,团队研发了一套三层架构的平台解决方案:
调度层—鹤思调度系统:对标国际主流的Slurm调度系统,团队自研了面向大规模、高效率场景的智能异构算力调度系统“鹤思”。鹤思调度系统在调度效率上达到国际领先水平,还率先支持各类国产加速卡,填补了纯国产高性能调度系统的空白。
平台层—SCOW算力平台系统:为降低高性能计算的使用门槛,团队开发了“Super Computing on Web”(SCOW)平台。它提供简洁的网页用户界面,让不熟悉Linux命令行的师生也能轻松提交和管理计算任务,同时集成了智能管理、额度授权、财务合规等功能。
应用层—丰富的应用与服务:远程桌面,为满足工业设计、可视化等需求,该应用允许用户通过浏览器直接在高性能服务器上进行图形化操作,免去了大量数据在本地与服务器间频繁传输烦恼。“小蒜”智能体平台,最初为解答用户夜间提问而开发的问答机器人,现已发展为功能强大的智能体平台。用户只需上传私有文档,即可快速构建针对特定知识库的问答智能体。
算力融合与前沿探索
樊春主任进一步介绍了平台在前沿领域的探索。
算力网络融合平台(XSCOW):为响应教育部号召,平台将不同高校的闲置计算资源连接起来,实现了跨校的算力共享与调度,目前已有10所高校提供闲置资源,已接入20所高校用户。
“未名卓越一号”国产超智算集群:通过与华为合作,建立基于其鲲鹏(CPU)与昇腾(AI加速卡)芯片的国产算力集群。团队为此制作了详尽的教程,同时通过自研的SCOW系统极大提升了国产硬件的易用性,使得北大在该平台的应用成果在华为组织的全国评比中独占鳌头,在今年华为全连接大会上,华为生态部门向重点支持的17所高校颁发出8个奖项,北大独得4项。
统一大模型服务平台:整合校内外多种大模型资源,通过统一接口为全校提供服务,支持AI应用开发与多模型性能比较研究。
加速即服务(XaaS):通过容器化技术,将编译好的高性能应用打包成镜像,形成“应用市场”。用户可直接拉取使用,无需经历复杂的编译过程。此外,团队在技术上解决了MPI跨节点容器化部署一直存在的痛点,实现了开箱即用。
超算与智算融合: HPC用户(习惯命令行、专用软件、共享存储)与AI用户(偏好容器、需要root权限)具有不同使用习惯和类似的算力需求(多CPU、大内存、多GPU),新平台通过在容器内赋予用户root权限,成功将两类用户群体融合在同一套硬件资源上,提高了资源利用效率。
此外,平台还支持Windows系统和量子计算模拟,为不同学科需求提供了灵活的解决方案。

讲座结束后,现场师生与樊春主任进行了热烈的互动交流。
有同学就校内计算资源的分布集群提出问题:“目前校内有两个物理上处于两个位置的集群,能否通过Slurm调度系统将它们打通,实现统一管理?”樊主任解释道,这种跨物理位置的集群通过Slurm打通在技术上比较困难,且可能会引入不稳定风险,因此目前并未采用此方案,但是通过SCOW平台和统一认证系统打通比较容易。
另一位主要进行大模型计算的同学提问,在日常使用中,他已经习惯了高度抽象化的编程接口,例如只需设置节点数(n_nodes)即可控制调用多少算力,是否还有必要去深入了解底层的硬件和系统知识?樊主任表示,平台建设的核心目标之一就是做好抽象层,让科研人员可以专注于自身的研究,而不必为底层细节分心。因此,只要不影响科研,用户完全可以不去了解。当然,如果这种抽象明显影响到了性能,则有必要进一步了解底层硬件和系统知识。他也鼓励对技术本身感兴趣的同学,通过学生社团(如Linux协会)等渠道进行深入探索和学习。
还有同学关心门户网站上提供了大量的大模型,但学生往往不清楚各自的优劣,希望平台能提供一个性能评测作为选择参考。樊主任回应说,门户上的大部分模型是针对特定领域的专业模型,其性能需在具体应用场景下评估。对于通用型的大模型,他建议同学们可以参考第三方评测网站的信息来进行比较和选择。
茶座结束后,李新征教授代表前沿交叉学科研究院和听众对樊春主任的精彩演讲表示了衷心感谢并赠送了周三茶座纪念品。
