中兴通讯加速从“全连接”向“连接+算力”拓展 展示算力多元布局与大模型策略

当今社会,看不见、摸不着的数据无处不在,电商购物、银行转账、线上会议、智能生产、工具的使用……每一项活动都伴随数据的产生、传输、计算、存储,连接越来越多,算力需求也日益增长。

中兴通讯加速从“全连接”向“连接+算力”拓展    展示算力多元布局与大模型策略

在日前举办的2024年中兴通讯云网生态峰会上,上述趋势体现的尤为明显。会上,中兴通讯更重磅发布了十余款创新产品,并与38家合作伙伴签署战略合作协议,从产品布局、研发投入,到行业应用,都展现了中兴正加速“连接+算力”拓展的实力与成效。

连接+算力 布局与成绩

中国已经成为数据量最大、数据类型最丰富的国家之一,全国数据工作会议上的最新信息显示,经初步测算,2023年中国数据生产总量预计超过32ZB。我国数据产量已占全球数据总量的10.5%。

海量数据爆发对算力的需求日益攀升,与算力支撑的愈发重要。以汽车为例,一辆自动驾驶汽车行驶一天,累计产生的数据达到TB级别的规模,需要算力实时处理来自传感器、摄像头、用户交互的各类数据,稍有闪失便有严重后果。

算力成为经济社会高质量发展的重要驱动力和生产力。

正因如此,中兴通讯将自己定位为“数字经济筑路者”,由全连接向“连接+算力”加速拓展。

据年报,中兴通讯2023年研发费用252.89亿元,同比增长17.01%,占营收比重达到了20.35%,研发投入方向主要就在连接和算力两方面。

据中兴通讯首席发展官崔丽介绍,中兴通讯进行了算力多元化布局,提供涵盖通算、智算等全栈算力基础设施解决方案,聚焦极致性能、开放解耦、多元普惠和绿色液冷,包含通算/智算服务器、分布式及全闪存储磁阵、液冷柜及、训推一体机等多元化产品,满足不同场景算力需求。

中兴通讯多年来在连接领域的积累,使他们的算力发展具备独特优势,实现“以网强算”和“算网融合”

智能算力存在单位成本高、软硬件不解耦难点,如何让企业用得起、用得好算力?中兴通讯执行副总裁、首席运营官谢峻石指出,关键着力点是算力成“网”,通过高速网络连接实现算力硬件资源的共享,降低单位算力成本;通过网络的统一服务实现算力表达的通用化、标准化;通过超高速广域网络组建虚拟统一智算中心。

通过研发投入、多元布局与连接优势的三管齐下,中兴通讯“连接+算力”拓展效果显著:

在连接领域,保持关键技术和产品竞争力业界数一数二;

在算力领域,以核心的服务器举例,中兴通讯服务器市场规模近年来保持高速增长,远超行业平均水平,服务器整体规模已跻身国内前五,电信行业连续三年发货量第一,在金融行业规模应用于国有大行、股份制银行,城商行、农信社、保险和证券等,在互联网行业,全面覆盖国内TOP10互联网头部客户,同时在交通、电力、政务等各个行业都有规模应用,已成为国内服务器市场主流供应商。

中兴通讯加速从“全连接”向“连接+算力”拓展    展示算力多元布局与大模型策略

通过本次峰会上中兴通讯发布的一系列新品,我们可以清晰地看到其“连接+算力”的全面布局:智算服务器、训推一体机、自研系列化网卡、高端多控磁阵、400G数据中心交换机、FTTR-B万兆网关、数字星云3.0、GoldenDB、二合一5G云电脑、5G安全旗舰、裸眼3D平板、AI 5G FWA、中兴AxonStation、自研车规级模组等十余款发布的创新产品,涵盖底层算网、中层平台、上层应用及行业终端四大领域。中兴通讯致力于为合作伙伴构筑“连接+算力+能力+智力”的高效绿色数智底座,加速全社会数智化转型升级。

“未来2到3年,公司将通过加强算力领域布局、加强政企业务和拓展终端市场这三个方面,来推动收入增长。”

拥抱智算变革  以应用创造大模型价值

“人们总是高估一项新技术所带来的短期效益,却又低估它的长期影响。――阿玛拉定律”

2023年以来,ChatGPT引发大模型浪潮,生成式AI成为全球最火爆的风口,据统计,仅国内就推出超两百个大模型产品。

中兴通讯认为,目前智算处于初级阶段,生成式AI技术已经展现出巨大潜力,这预示着一场长周期技术革命。这场革命将对各方面带来深远变革,改变现有技术路线和发展模式,降低行业获取新能力的门槛,减少对陌生技术的学习难度,并显著降低成本,推动社会资源的高效共享,成为创新的新动力。

面对AI热潮,中兴通讯的态度颇为理性,“当前技术迭代速度快,市场炒作达到高峰,我们需要避免过度期待或低估其长期影响。”

任何技术的创新突破,商业闭环是其生命力的根本,放到落地场景、目标和资源约束下去平衡考量,核心目的是解决问题、创造价值,适合才是最好的。

因此,中兴通讯一方面积极拥抱变革,一方面重视场景落地,以创造价值为重要衡量。

大模型需要大规模智能算力进行训练与推理。对智算需求,中兴通讯推出全解耦的全栈智算方案:智算服务器兼容国内外主流CPU/GPU;提供全国产化100G和200G网卡,已发布千卡级GPU/单POD资源池业务规模的全盒式400GFabric网络解决方案,2024年即将发布新一代400GFabric产品,同时提前布局下一代800G Fabric;全系列智算中心解决方案,采用风液混合调节散热,PUE值可低至1.1,且能结合AI的DCIM管理系统保障数据中心全生命周期智能调优。以上产品系列可满足万卡级GPU超大规模组网和模型训练需求、多样化算力推理,全力构建开放解耦生态。智算方案包括智算资源池和AiCube训推一体机两种形态,灵活满足不同场景下客户需求。

生成式AI技术快速迭代,对服务器、存储等智算基础设施提出更高的要求。中兴通讯根据要求研发创新,在会上推出智算基础设施家族新产品:高性能AI服务器R6900 G5、边缘训推一体机AiCube、全系列网卡以及高端多控磁阵KF8810。

其中R6900 G5智算服务器适用于大模型训练场景,模块化设计,换卡不换座,提供多元算力灵活选择,一个基座可适配3种CPU平台与国际国内众多主流GPU模组。对于智算服务器高功率带来的高热量,中兴研发的冷板式液冷高效散热,液冷机柜与服务器解耦,风冷与液冷按需搭配,漏液检测秒级告警,具备高安全性与低PUE。

在大模型领域,中兴通讯采用“1+N+X”策略,星云大模型采用自研与生态合作并举,并在此基础上通过领域知识增量预训练“N”个领域大模型,包括研发大模型、企业大模型、通信大模型、工业大模型等,进而衍生出“X”种应用,对内实现研发提效,对外以大模型技术加速产业数智化转型。

举例来说,研发大模型已经在公司发挥重要作用,编码效率提升30%;通过应用企业大模型,公司实现高频业务提效 20%+;工业大模型在中兴南京滨江生产基地应用成效显著,订单排产时间缩短88%、工艺文件生成效率提升50%。

有别于厂商侧大模型不断涌现的景象,在应用端,“有些客户往往并不关心产品中具体包含多少AI大模型,他们更关注的是能否满足其核心需求——通过一套整体解决方案,“多快好省”的帮助企业实现和智能化转型。

本次发布的数字星云3.0,通过融合AI能力实现革新升级,解决大模型在产业落地中的数据处理、训练推理、应用开发、安全保障、灵活部署五大关键挑战,帮助客户和合作伙伴多快好省应用AI技术,快速打造高价值智能化应用。

会上,中兴通讯与来自金融、电力、交通、政务、大企业、商业市场的38家合作伙伴签署了战略合作协议。

无论是面对经营挑战,还是面对市场狂热,中兴通讯坚信科技自主创新是推动产业升级的根本动力,从全连接到“连接+算力”,中兴通讯正携手越来越多行业伙伴,快步向前。

延伸阅读:

  • 本文素材来自互联网,如有侵权,请联系将及时删除!
© 版权声明
THE END
喜欢就支持一下吧
点赞13 分享
评论 抢沙发