高通 (QCOM.US) 周一 (27 日) 宣布推出新一代人工智慧 (AI) 加速晶片,將正式進軍資料中心領域,挑戰目前由輝達 (NVDA.US) 與超微 (AMD.US) 主導的 AI 晶片市場。這項轉型標誌著高通從行動與通訊晶片業務,跨入以 AI 伺服器為核心的新戰場。
進軍 AI 資料中心 高通推出 AI200 與 AI250 晶片
高通表示,旗下兩款新晶片——AI200 與 AI250——分別將於 2026 年與 2027 年上市,能以液冷伺服器機櫃系統形式銷售。這兩款產品可配置於整個機架中,設計理念與輝達及超微的圖形處理器 (GPU) 系統相似,單一機架可容納多達 72 顆晶片,協同運作以執行大型 AI 模型。
高通資料中心與邊緣運算事業總經理 Durga Malladi 表示,AI200 與 AI250 延伸自高通行動晶片中的「Hexagon 神經處理單元 (NPU)」。他指出,高通先在其他領域累積 AI 運算實力,如今進軍資料中心相對順利。
麥肯錫預估,2030 年前全球將在資料中心投入約 6.7 兆美元資本支出,其中大部分將用於 AI 晶片相關系統。這意味高通切入的市場潛力龐大,也勢必加劇與輝達的競爭。輝達目前在 AI 加速晶片市場占有率超過九成,市值突破 4.5 兆美元,其 GPU 被廣泛用於訓練 OpenAI 的 GPT 系列模型。
聚焦 AI 推論應用 以成本與能效對抗輝達、超微
高通強調,旗下 AI 晶片的定位主要在「推論」(Inference) 階段,也就是執行 AI 模型,而非訓練模型的運算任務。公司表示,AI200 與 AI250 的整機系統耗電約 160 千瓦 (kilowatts),與輝達高階 GPU 伺服器相當,但整體運行成本更低、能效更高,特別適合雲端服務供應商部署。
Malladi 指出,高通將以模組化方式銷售晶片與其他零組件,讓超大型資料中心業者能自行設計機櫃架構。他補充,未來高通的部分處理器或伺服器元件甚至可能供應給其他 AI 晶片商使用,包括輝達與超微。
高通未公布 AI200 與 AI250 的售價或記憶體配置上限,但表示單張 AI 運算卡可支援高達 768GB 記憶體,優於市場上部分同級 GPU 產品。今年 5 月,高通已與沙烏地阿拉伯企業 Humain 簽署合作協議,為該國資料中心供應 AI 推論晶片,預計部署規模可達 200 兆瓦 (megawatts) 電力運算容量。
高通強調,其 AI 晶片在功耗、成本與記憶體設計上均具差異化優勢,希望憑藉高能效與開放架構策略,在 AI 伺服器市場中分食輝達與超微的市占。
(美股為即時串流報價; OTC市場股票除外,資料延遲最少15分鐘。)新聞來源 (不包括新聞圖片): 鉅亨網