新闻动态

【超聚变探索者大会2025】全球计算联盟理事、秘书长彭鹏致辞



415-17日,“超聚变探索者大会2025”于郑州盛大举办。此次大会由GCC黄金会员单位超聚变数字科技有限公司主办。GCC理事、秘书长彭鹏先生作为重要嘉宾受邀出席,并在416日的产业发展论坛中,代表全球计算联盟和开放液冷专业委员会致辞并解读《智算中心液冷整机柜服务器开放架构多样化算力兼容研究报告》。这份报告凝聚了开放液冷专委会成员单位与行业专家的智慧结晶,旨在为全球智算中心的高效化、绿色化发展提供创新路径。

 

趋势与挑战:AI算力革命下的必然选择


当前,生成式AI技术正以指数级速度重塑计算产业格局。从GPT-4Grok-3,单次训练功耗已突破百兆瓦级,芯片热设计功耗(TDP)向1.2千瓦迈进,传统风冷技术在高密度、高功耗的AI集群面前已捉襟见肘。与此同时,政策层面“双碳”目标与东数西算工程对PUE的严苛要求(2025年大型数据中心PUE1.3),推动行业必须寻求更高效的散热解决方案。

 

数据显示,中国液冷市场正以35%的年增速爆发,2024年规模突破150亿元。但挑战同样严峻:单柜功率超100千瓦的AI集群部署需求、千卡/万卡级高速互联带宽的几何级增长、多样化AI芯片的兼容性壁垒,以及液冷系统漏液风险的控制,已成为制约行业规模化发展的关键痛点。

 

报告核心:开放架构与多算力兼容的创新突破

本报告即将在GCC官网提供下载,敬请关注!

本次发布的报告提出了一套开放、灵活、安全的液冷智算架构解决方案,核心创新体现在三方面:

1. 硬件架构革命  

•   打破边界:打破服务器边界,实现服务器、网络、供电、液冷机柜一体化设计。

整机柜部署:总线盲插,部署极简,运维极简。零线缆支撑自动化运维,实现无人数据中心。

多算力兼容:通过统一液冷整机柜架构,支持88 OAM模组服务器灵活部署,单柜兼容64颗不同厂商AI加速芯片(如HGXUBB 1.5/2.0接口),实现“一柜多芯”的算力兼容。  

 

2. 能效跃升和极致可靠  

   • 全冷板液冷方案:覆盖CPU/GPU等热源,整机功耗降低10%,单柜支持500kW级功率密度演进,PUE可低至1.06。  

   • 智能供电系统:54V高压直流集中供电,配电空间节约50%,支持2N冗余与削峰填谷策略,五年TCO降低15%

盲插运维与水电隔离:首创液冷管路与供电总线盲插技术,部件更换效率提升50%;水电分层隔离布局(上水下电、左水右电),杜绝安全隐患。  

   • 三级漏液防护:从机柜级导流、节点级关断到模组级监测,构建全链路防护体系,漏液风险降低90%

 

3. 智能管理底座  

   • 跨厂商BMC兼容:抽象GPU管理适配层,支持多算力芯片独立开发、热升级,运维效率提升40%。  

   • 千卡集群组网优化:基于UEC联盟标准,实现参数面Scale-out网络与Scale-up互联的协同设计,万卡集群部署周期缩短一半。

实践验证:超聚变FusionPoD的标杆价值

报告收录了联盟成员超聚变的标杆案例——FusionPoD for AI整机柜液冷服务器。其创新实践包括:  

• 原生液冷设计:100%液冷散热覆盖,PUE1.06,满足东数西算枢纽节点严苛要求。  

• 极简交付模式:液电总线即插即用、漏液导流与防喷溅技术,千卡集群部署效率提升60%。  

• 开放生态兼容:支持东西方多厂商芯片,助力运营商打造绿色智算中心。

 

 未来展望:共建液冷智算新生态


AI算力的未来属于推理与Agentic AI(自主人工智能),超节点架构、混合专家模型(MoE)与1.6T互联需求将驱动单柜功率向MW级突破。我们呼吁:  

• 技术协同:加速OAI/UBB接口标准化,推进液冷组件成本下降。  

• 生态开放:构建跨厂商、跨地域的测试验证平台,降低用户选型与运维门槛。  

• 政策联动:联合制定液冷智算中心能效评级与安全规范,引领全球标准。

此报告未来会根据产业发展情况迭代刷新,未来有意愿在开放架构多算力兼容道路上携手前行的朋友们,可以联系全球计算联盟开放液冷专业委员会共同参与。


杨老师:yangjinyu@gccorg.com

苗老师:miaofy@gccorg.com

 

开放液冷专业委员会作为全球计算联盟下设的分支机构,面向全球产业伙伴开放,欢迎加入开放液冷专业委员会