随着“JUPITER”的投用,欧洲正式迈入百亿亿次(Exascale)计算时代。 这台超级计算机每秒可执行 10¹⁸ 次以上的运算,是欧洲首台达到该门槛的系统。它已在启用仪式上亮相,标志着欧洲在科学、产业与数字主权方面迈出关键一步。
“百亿亿次”是什么意思?——通俗版
计算机的快慢,取决于它 每秒 能做多少次算术运算。百亿亿次(Exascale) 指的就是 至少 10¹⁸ 次/秒。这个数字很抽象?可以这样比喻:一台百亿亿次级系统 1 秒钟 能完成的工作,哪怕是高性能笔记本电脑也要 许多年 才能做完。美国在 2022 年以“Frontier”率先跨过这道门槛;“JUPITER”首次把同级别能力带到欧洲,让研究机构与企业能在本地使用世界一流的算力。
这台机器:JUPITER 如何达到百亿亿次
“JUPITER”把多项前沿技术拧成一股绳,在冲击极致性能的同时,把能效做到了同级领先:
- 处理器平台。 采用 NVIDIA Grace Hopper(GH200)超级芯片,在同一模块内集成 CPU 与 GPU,既能加速传统数值模拟,又能高效处理现代 AI 工作负载。
- 系统架构。 基于 Eviden BullSequana XH3000 机柜,配备 温水直液冷,实现超高计算密度与高效散热。
- 规模与互连。 大约 24,000 颗 GH200 通过 NVIDIA Quantum-2 InfiniBand 互连,提供 约 51,000 条高速链路,让数据以极高速度在各节点间流动,保持全系统高负载运行。
- 存储与数据中心。 集成 近 1 个艾字节(EB) 的存储,部署在 约 50 个预制模块组成的 模块化数据中心 内,这种方式缩短了建设周期,也为未来扩容留足空间。
在科学计算常用的 双精度(FP64) 下,JUPITER 可执行 约 1 EFLOPS(每秒百亿亿次浮点运算)。在采用更低数值精度的 AI 任务 上,其理论峰值 最高可达约 90 “AI EFLOPS”,同时跻身全球最强 AI 超级计算机行列。
谁建造了它——以及它为何具有地缘与政策意义
“JUPITER”由 EuroHPC(欧洲高性能计算联合体) 主导,资金与实施来自欧方、德国联邦政府、北莱茵-威斯特法伦州以及由 Eviden(Atos) 与 ParTec 牵头的产业团队;NVIDIA 提供加速计算平台。成果是:欧洲首台百亿亿次级系统,投用时即 欧洲最快、全球最前列。
这不仅是“面子工程”。把顶级算力 放在欧洲本土,意味着在 AI、安全、气候政策、汽车、医药等关键领域,欧洲拥有更强的 技术与数据主权:敏感数据不必跨境流转,科研与产业链协同更顺畅,人才与企业生态可在本地生长。就此而言,“JUPITER”宣示了欧洲从算力“使用者”向算力“供给者”的转变。
它将被用来做什么
这台机器已经被分配到一批覆盖面极广的科研与产业项目:
- 气候与天气。 例如 Max Planck 气象研究团队正在运行 公里级分辨率 的气候模拟,更真实地刻画强对流、极端暴雨等 极端事件。更细的分辨率可带来更可靠的预测与更有依据的公共决策。
- 能源与材料。 百亿亿次级模拟将加速新一代电池、催化剂、半导体与 可再生能源系统 的研发,把大量试验前移到 虚拟环境,缩短研发周期、降低创新成本。
- 人工智能。 “JUPITER”同时是 欧洲最先进的 AI 超级计算机,用于 多语种大型语言模型(LLM) 的训练,以及图像、视频与多模态 基础模型 的构建。把训练留在欧洲本地,有助于满足数据保护与数字主权等合规要求。
- 医学与神经科学。 借助高保真 神经元模拟器,可把脑活动建模到 亚细胞 级别,服务于阿尔茨海默病、癫痫等研究;分子动力学将覆盖超大型生物分子体系,推动器官 数字孪生,以便 in silico(计算机内)评估药物与疗法。
- 量子计算研发。 依托庞大的内存与带宽,“JUPITER”有望在 量子电路仿真 上刷新纪录,进一步提高可仿真的量子比特上限,让研究者在硬件尚未到位前先行验证算法与架构。
能效:强劲算力,也要“省电不浪费”
超算的功耗往往可达 两位数的兆瓦级,因此 能效 从来不是细枝末节。“JUPITER”自设计之初就把 每瓦性能 放在首位:
- 温水直液冷 比风冷更高效地带走 CPU/GPU 热量,且回水温度可被 回收利用,用于 周边建筑供暖,把“副产物”变成“资源”,降低整体碳足迹。
- 芯片本体效率 同样关键。Grace Hopper 架构在模拟与 AI 两类负载上都追求更高的性能/功耗比,实现 同样能耗、更多产出。
- 在整机建成前,采用同类技术的 试验机柜 曾位列 Green500 能效榜首;完工后的整机亦被认为是 全球前五快机中能效最佳 的系统之一。顶速与高效兼得,恰恰是数据中心用电持续攀升时代最稀缺的组合。
一句话:强 而 不耗,才是面向未来的超算之道。
对欧洲经济意味着什么
在政策制定者与产业界眼中,“JUPITER”是一座 连接科学与经济 的平台。如今从生物技术、汽车到金融、能源,AI 与高端模拟 已是竞争力的核心能力;把 百亿亿次级算力留在欧洲,意味着切实的竞争优势:
- 为欧洲的 初创与中小企业 降低门槛:无需把数据外流,也不必深度依赖非欧盟供应商,就能训练最前沿的 AI 模型、运行大规模模拟。
- 规划中的 JUPITER AI Factory 将以 “类云”服务 的方式开放算力,满足企业在短时内对超大规模计算的“爆发式”需求,无需自建超算。
- 把公共科研任务与产业使用对接起来,能 更快把 HPC 突破转化为产品与服务——从更安全的材料、更轻的整车,到更清洁的能源系统与可落地的医疗进步。
与此同时,人才生态 也将受益:这样的设施会吸引并留住工程师、数学家、化学家与计算机科学家;打通与高校的人才培养通道,资助面向真实问题的博士项目,巩固区域 创新集群。久而久之,会形成“好工具 → 好人才 → 更好的工具”的正向循环。
为什么能这么快建成
秘诀在于 模块化数据中心。高集成度的 预制模块 像积木一样拼装成整套基础设施,既缩短了施工期、降低了现场干扰,又为 后续扩容与代际升级 预留了便利。园区将供配电、网络与液冷以 可维护、高可用 为核心进行一体化设计,可作为欧洲下一波超算项目的 可复用范式。
开放、治理与数据管理
如此规模的算力,必须回答 谁能用、怎么用 的问题。“JUPITER”的路线图设定了 学术、公共利益与产业 的多元负载,将通过 同行评审立项、战略计划与商业通道 分配资源。要在 扩大开放 与 守住信任 之间取得平衡,需要:
- 透明的 资源分配政策;
- 对敏感数据 强有力的隐私与安全保障;
- 严格遵循欧洲在 数据保护、安全与责任 方面的原则与规范(尤其在 AI 领域)。
这些“护栏”能确保系统在更广泛服务社会的同时,维持高标准的可信度与合规性。
需要关注的挑战
亮相成功之后,仍有若干课题值得持续投入:
- 软件就绪度。 峰值性能离不开针对 GPU、高带宽内存与复杂互连优化的代码。很多老牌科研程序仍需深度现代化。
- 公平调度。 如何在 旗舰级项目(如洲际分辨率的气候模拟)与 小而美的创新提案(来自年轻团队与初创)的资源之间取得平衡,需要精细的政策与清晰沟通。
- 生命周期与升级。 百亿亿次级硬件迭代很快。分期升级、备件保障与对未来处理器的兼容策略,将决定系统能否长期保持竞争力。
- 能源与成本。 即便再高效,系统功率也很可观。通过 长期绿电合约 与 持续的余热回收投资 来稳定成本与控制排放,至关重要。
欧洲超算的“新黎明”
“JUPITER”并不只是“更大的计算机”,它是一座 面向发现与竞争力 的平台。对科学而言,它打开了前所未有的 更高分辨率、更长时间尺度 的模拟大门——从能“解析雷暴”的气候模型,到逼近生命复杂性的分子体系。对工业而言,它带来 更快的产品节奏、更安全的工程设计 与 更强的 AI 能力(以欧洲语言与数据为训练基座)。对政策制定者而言,它证明了 泛欧合作 能够 按期且高效 地交付站在技术前沿的基础设施。
百亿亿次的竞逐仍在继续:机器会更快、更专用、更高效。但随着 “JUPITER”已点亮并投入工作,欧洲完成了一个决定性跨越——从全球最先进算力的 “用户”,成为其 “塑造者”。