首页文章详情

技术摸高+工程落地:新华三双轨突围,重构AI算力开放生态

36氪品牌2025-08-12 10:20
新华三以超节点与一体机破局大模型产业,构建开放生态。

过去十二个月,大模型在中国完成了从“技术奇景”到“产业刚需”的惊险一跃。

据网信办2025年1月通报,截至2024年底全国共有超300款生成式大模型完成备案;然而,中国信通院《2024大模型落地应用案例集》指出,能稳定运行于真实生产环境,且对外提供持续服务的模型不足15%,多数仍停留在内部测试或PoC阶段。

核心矛盾不再是“有没有模型”,而是“能不能把模型稳定、高效、低成本地跑起来”。训练侧,千卡集群的有效算力利用率仍待提升;推理侧,大量企业因部署周期长、运维复杂而被迫转向公有云,短期成本虽低,长期却埋下数据合规与业务连续性的隐患。

在这一背景下,2025世界人工智能大会(WAIC)把“智能时代,同球共济”定为主题,意在呼吁产业链共同解决算力普惠与工程落地难题。

新华三集团以“聚合·智跃迁”为主题参展,并集中发布超节点等重磅产品。面对行业算力供需失衡的困局,新华三集团高级副总裁、云与计算存储产品线总裁徐润安向36氪阐释了破题逻辑:“AI产业需要技术摸高与工程落地双轨并行”。在其勾勒的蓝图中,超节点代表算力密度的极限突破,而大模型一体机则化身AI普惠落地的工程载体——两者通过开放生态形成闭环,为不同规模企业提供可裁剪的算力解决方案。

技术摸高:把64张GPU装进一个柜子,算力效率如何再上层楼

在WAIC现场首次亮相的H3C UniPoD S80000超节点,是新华三对打破“单机算力天花板”的最新回答。单机柜最多可容纳64张GPU,同时,通过以太互联协议的Scale-up南向互联架构实现GPU高速互联。这一密度并非简单堆叠,而是围绕通信效率、能耗、交付三个维度重新设计整机架构。

通信效率方面,新华三采用自研的液冷级高速背板,单机柜即可高密度部署64张GPU,并实现卡间高速互联。实测显示,在256卡集群上运行相同大模型时,推理效率可提升约15%–20%,且“无需额外调优即可获得性能增益”。整机液冷将PUE控制在1.1以下,官方测算在现行工业电价下可带来显著的能耗节省。

“技术摸高解决‘能不能算’,工程落地解决‘敢不敢用’。”徐润安强调,新华三正以“算力×联接”的乘数效应重构产业范式,这为千卡级以上的集群规模带来训练效率的跃升。他透露,目前某智算中心已完成4机柜256卡的小规模验证,下一阶段将扩容至千卡级别,主要支撑自动驾驶大模型等场景的迭代训练;客户最关心的两个指标——有效算力利用率和单位算力成本——在实测中均优于传统方案。目前,新华三已与多家国产GPU厂商建立联合实验室,持续推进算力生态繁荣,打造可用、好用的国产算力。

工程落地:大模型一体机把AI部署周期从“月”压缩到“小时”

当训练算力向高密度集中,推理算力却需要“广而散”。大量高校、制造、医疗客户不具备自建智算中心的条件,又希望把大模型能力快速嵌入业务。针对这一痛点,新华三推出LinSeer Cube大模型一体机,预集成硬件、框架、模型、应用四层能力,实现“开箱即用”。徐润安向36氪透露部署困境,“即使是知名高校中能独立部署大模型的人也在极少数,而企业招揽相关人才的成本超百万。”而一体机将彻底改变这一局面——硬件覆盖三档规格,满足从7B到671B的多种使用场景;模型侧预装DeepSeek、Qwen等主流模型,通过LinSeer Hub平台按周更新模型库。用户借助可视化界面,30分钟内即可完成模型切换与API发布,平台内嵌20+可编排组件更支撑分钟级应用构建,大幅降低企业试错成本。

定价策略同样经过精打细算。入门款控制在20万元以内,相当于一辆商务车的采购预算。该定价精准锚定中小企业年度IT预算阈值,使AI部署不再是大企业专属。新华三集团云与计算存储产品线副总裁、产品支持与解决方案部总经理武家春用“打通最后一公里”形容一体机的定位——客户不再需要拼凑服务器、网络、存储、软件,也不再需要招聘稀缺的AI架构师,只需关注业务逻辑。目前该产品已纳入全国渠道销售体系,率先面向教育、医疗、制造行业推广。

值得注意的是,一体机并非“低配版”超节点,而是把工程经验产品化的结果:同样的AI加速卡、同样的管理平台,只是规模缩小到单机或半柜,从而把算力从数据中心延伸到楼宇机房、实验室甚至车间。徐润安强调,“普惠不仅仅是低价,更是要把使用门槛降到小时级”。

开放与生态:把选择权还给客户,也要把风险降到最低

面对GPU品牌多元、技术路线快速迭代的现实,新华三在WAIC上明确表态:不做封闭生态,而是通过标准化接口和联合设计把“选择权”交回客户。截至目前,新华三已适配超过80款GPU,并与10余家芯片厂商联合设计OAM模组;在硬件协同层面,新华三提前12个月介入多家芯片厂商的规格定义,确保整机架构与芯片设计同步。

硬件接口标准化是开放的前提。新华三集团云与计算存储产品线智慧计算产品市场部总监汤涛对36氪透露,已完成基于PCIe的互联协议扩展,确保不同品牌GPU可以在同一机柜内替换;下一代产品将支持以太互联,届时客户可根据GPU迭代节奏灵活升级,无需更换整机。

生态的另一端是运维。LinSeer ICT智能体把新华三20余年运维经验产品化,网络故障实现“秒级诊断、分钟级修复”,光模块劣化场景实测预测准确率超过90%。

算力供需错配仍是2025年中国AI产业的最大变量。新华三给出的答案是“双轮驱动”:依托自身“算力×联接”能力提高训练效率、降低推理门槛;用开放架构和生态策略让客户在不同技术路线之间自由切换。

同时,LinSeer ICT智能体将向全行业开放API,允许ISV在平台上开发行业专属运维插件。徐润安对36氪强调,“国产算力处于螺旋上升期——堆出来的算力很多,好用的算力不够。唯有开放生态才能填平这道鸿沟。”

当算力真正像水电煤一样触手可及,大模型才有可能从“技术炫技”变成“生产力工具”。新华三接下来要做的,是把“技术摸高”与“工程落地”之间的缝隙继续收窄——既让千卡、万卡集群跑得更稳,也让20万预算的客户敢买、敢用、敢迭代。