3
AI 資料中心競賽持續升溫,長期以手機晶片聞名的 Qualcomm(高通) 宣布推出下一代 AI 推論處理器 AI200 與 AI250,正式進軍伺服器級市場,矛頭直指 NVIDIA 與 AMD。根據《Wccftech》報導,高通此次策略性地放棄高頻寬記憶體(HBM),改採以 LPDDR 為核心的設計架構,並在單張加速卡上提供高達 768GB 記憶體,容量遠超業界 HBM 標準。
高通表示,AI200 支援高容量且成本更低的 LPDDR 模組,能提升系統擴充性與靈活度;AI250 則導入創新的 近記憶體運算架構(Near-Memory Computing),可實現超過十倍的有效頻寬提升,同時大幅降低功耗。這意味著高通正試圖以「高容量、低成本」的差異化策略,撼動現有以 HBM 為主的高端市場格局。
棄用HBM的賭注:散熱與可靠度挑戰並存
然而,《Wccftech》同時指出,雖然 LPDDR 架構在成本與靈活性上具優勢,但在高溫、高負載的資料中心環境下,可能存在穩定性風險。HBM 因其高速與高散熱效率仍被視為主流選擇,因此高通此舉可謂「以靈活換極限」。
根據高通發布的技術資料,AI200 與 AI250 均搭載 Hexagon NPU,針對 AI 推論進行深度優化,並支援大規模多模型運算。不過,《Tom’s Hardware》指出,高通尚未公布其 AI 伺服器方案的中央處理器(CPU)搭配,顯示其產品生態仍在調整階段。(原文出處)