高通AI晶片進軍資料中心,憑高效能低功耗劍指2000億市場

科韻媒

科技巨頭高通於2025年10月27日隆重推出兩款專為資料中心設計的全新AI推理晶片:AI200和AI250。此舉不僅鞏固了高通在技術領域的領導地位,更為其在快速成長的AI基礎設施市場中開闢了新的戰線,憑藉其對效率和效能的承諾,向既有競爭者發出挑戰。

AI200晶片預計於2026年正式上市,而其更為先進的AI250則排定在2027年初推出。這兩款晶片皆經過精心最佳化,旨在處理AI推理工作負載——這是訓練好的AI模型應用於實際任務的關鍵階段,例如驅動複雜的聊天機器人、進階分析引擎和智慧數位助理。高通強調,這些晶片旨在提供卓越的每瓦效能,最終為資料中心營運商帶來更低的總體擁有成本(TCO)。特別值得一提的是,AI250採用了創新的記憶體架構,運用近記憶體運算(near-memory computing),預計將提供超過10倍的有效記憶體頻寬,並顯著降低功耗,超越傳統方法。AI200則支援每張卡768 GB的LPDDR記憶體,為嚴苛的AI應用程式提供了充足的容量。這些晶片的運作仰賴功能強大的高通AI引擎,這是一個整合套件,包含高效能的高通Hexagon NPU、高通Adreno GPU、高通Kryo或高通Oryon CPU,以及高通Sensing Hub。其中,Hexagon NPU專為資料中心AI推理量身打造,支援多種精度,包括INT2、INT4、INT8、INT16、FP8和FP16,確保了在各種AI模型中的靈活部署。

除了單一晶片產品,高通更將這些創新以機架級別的推理解決方案形式呈現。這種做法讓企業能夠部署完整的預配置系統,而非自行組裝零散元件,從而簡化整合流程並加速部署時間。這些先進的機架解決方案採用直接液冷技術以實現最佳熱效率,利用PCIe實現可靠的擴展,並透過乙太網路進行大規模擴展。此外,它們還整合了機密運算功能,以確保敏感AI工作負載的安全處理。每個機架單元的功耗設計為160 kW。根據CNBC引述高通的內部測試數據顯示,AI200機架在實現同等輸出時,相較於基於GPU的類似系統,可節省高達35%的功耗。這種顯著的效率提升,對於大型資料中心營運商而言,每年可能意味著數百萬美元的節省,為其採用高通技術提供了強大的經濟誘因。

高通積極進軍AI基礎設施市場,是其擺脫日趨成熟的智慧型手機市場、實現營收多元化的明確策略。2025年6月,高通以24億美元收購英國Alphawave IP Group,更凸顯了這一雄心,此舉旨在增強其針對大型運算裝置的連線和系統整合能力。該公司已建立多項重要合作夥伴關係,其中包括與沙烏地阿拉伯新創公司Humain的合作,後者計畫從2026年開始部署約200兆瓦由高通提供動力的AI系統。高通技術規劃、邊緣解決方案與資料中心高級副總裁兼總經理Durga Malladi闡述了公司的願景,他表示AI200和AI250將「重新定義機架級AI推理的可能性」,並賦能客戶以「前所未有的TCO」部署生成式AI。市場對此策略轉型反應積極;高通股價在2025年10月27日飆升近15%,達到182.23美元,反映出市場對其進入高成長AI資料中心市場的普遍樂觀情緒。業界預計,隨著企業將AI整合到客戶支援和財務預測等各種工作流程中,到2026年,AI推理的總運算需求將超越AI訓練。高通因此目標在2030年前,以其模組化、高效能的晶片解決方案,顛覆規模估計達2000億美元的AI市場。

高通推出AI200和AI250晶片,代表著其邁入蓬勃發展的資料中心AI領域一個大膽而深思熟慮的舉措。透過充分發揮其在高效晶片設計方面的專業知識,並提供全面的機架級解決方案,高通有望挑戰現有模式,為AI推理工作負載提供引人注目的替代方案。