巴塞罗那2026年国际移动通讯大会(MWC)期间,高通展现面向机架级推理的可布置AI根底设施效果,全方位出现其在数据中心AI推理范畴的体系级布局。高通技能公司产品办理副总裁Gerardo Giaretta宣布署名文章,深度解读了高通应对AI数据中心布置革新的中心思路与产品效果。他称高通正以体系级处理方案破解AI推理根底设施的规划、功率与运营复杂性难题。而此次展出的Qualcomm AI200机架体系、加快卡及AI根底设施办理套件,更是高通深耕该范畴的重要落地效果。
Gerardo Giaretta称,当时AI对数据中心的影响已从理论走向实践,跟着AI模型复杂度和处理量的继续攀升,数据中心布置形式正在产生深入改变,服务供给商亟需在规划、功率和运营复杂性之间完成平衡,以此坚持市场竞争力并保持盈余才能。面临这一职业革新,高通一直聚集将自身通过验证的体系级优势,应用于不断演进的AI推理根底设施需求中,为职业供给实在可行的处理方案。
Gerardo Giaretta介绍,曩昔一年里,高通继续整合面向数据中心的三大要害构建模块,分别是高功用、高能效的AI加快技能,机架级体系模块规划才能,和支撑大规划布置和办理的配套软件。这套体系级处理方案以完成继续运营、可靠性和规划化为中心方针,不仅能适配数据中心AI推理的需求,也构成了高通在工业和根底设施核算范畴进一步演进的技能根底,而本次MWC2026,正是高通向职业展现该范畴实在发展的重要要害。
作为本次展现的中心效果,Qualcomm AI200机架体系成为高通布局数据中心AI推理的要害载体。Gerardo Giaretta详解道,该体系将加快卡、内存架构、互连技能和办理软件深度整合为一致的、可直接布置的机架级处理方案,其规划理念符合了客户对AI根底设施评价方法的改变——职业不再将AI根底设施视为孤立的硬件组件,而是更垂青面向继续运转规划的完好可保护体系。Qualcomm AI200机架体系具有43TB的突破性内存容量,成为运转最新、最大旗舰AI模型推理的抱负挑选,该体系将于2026年别传布置,这也标志着高通将核算和衔接瓶颈的处理才能,从边际侧进一步延伸至数据中心中心层面。
Gerardo Giaretta还介绍了Qualcomm AI200机架体系的中心特性与功用体现:该体系专为AI推理和低整体具有本钱(TCO)优化规划,集成了为数据中心作业负载定制的高通Hexagon NPU技能,一起具有直接液冷(DLC)、保密核算等功用,方案2026年下半年完成商用。在硬件标准上,体系选用LPDDR内存,单板卡内存容量达768GB,支撑PCIe纵向扩展、以太网横向扩展,整机架功耗控制在140千瓦。在实践功用上,高通在MWC2026展上演示单个Qualcomm AI200加快卡运转3500亿参数的生成式AI模型,而该渠道更可支撑扩展至1万亿FP16参数的AI模型,这一才能也凸显了体系模块规划中内存容量、数据传输和功率协同的重要性,可以为超大规划下的生成式AI落地供给支撑。
Gerardo Giaretta称,体系级的衔接才能与规划才能,是完成AI推理根底设施可扩展的要害。而高通在2025年12月完成对Alphawave Semi的收买后,已将高速有线衔接、定制芯片和Chiplet技能等要害才能归入数据中心产品组合,这些高功用、低功耗的数据传输技能,与高通现有的AI和核算渠道构成互补,逐步增强了高通从体系层面应对日渐增加的AI作业负载需求的才能。
为完成硬件与衔接技能的高效落地,高通还打造了AI根底设施办理套件,这一套件也成为本次MWC2026的展现要点。Gerardo Giaretta泄漏,该套件现在已由HUMAIN在实践数据中心中布置,可为机架级布置供给装备、监控、规划和毛病处理的全流程功用。在他看来,硬件、衔接技能和办理软件的深层次地交融,一起构成了高通一致数据中心渠道处理方案的根底,而这一渠道的中心优势,在于可以跟着客户AI作业负载的继续演从而完成灵敏扩展。
Gerardo Giaretta称,高通一切数据中心处理方案,均秉持精心规划、安身履行的准则,中心是将AI加快、衔接技能和软件才能,整合至专为实践布置场景规划的渠道中。本次MWC2026是高通向职业展现这些体系化发展的重要要害,而高通也将继续以体系级的产品与技能布局,助力服务供给商破解AI推理根底设施布置的中心难题,适配职业不断演进的需求。(心月)回来搜狐,检查更加多
