根據外媒與業界流出的投資人備忘錄顯示,OpenAI 正規劃在 2030 年前建置高達 30GW 的算力基礎設施,試圖以龐大電力與運算能力鞏固其在人工智慧競賽中的領先地位。此一規模若全面運轉,年耗電量推估約 262.8TWh,約占 2025 年美國總發電量 4.43 千 TWh 的近 6%,意味著單一企業的算力需求,可能改寫國家級能源使用結構。
報導指出,OpenAI 近期已多次對外重申 30GW 目標,並以內部生成圖表顯示,自 ChatGPT 問世以來,其算力需求持續飆升,預計到 2030 年將較 2025 年成長約 15 至 16 倍。此舉顯示 AI 競爭正從模型性能與參數規模,進一步升級為電力與基礎設施的全面競賽。
這項算力擴張藍圖建立在「星門」(Stargate) 計畫之上。該計畫於 2025 年 1 月由 OpenAI 聯合 SoftBank、Oracle 與 MGX 共同啟動,初期宣示未來四年投資 5,000 億美元,並以 10GW 為起點推進。隨後進展迅速,2025 年中即宣布新增 4.5GW 合作,使總規模突破 5GW,未來五年合作金額達 3,000 億美元。
同年 10 月,計畫進一步擴張至密西根州、德州與新墨西哥州等多個據點,規劃容量接近 7GW,總投資超過 4,000 億美元;隨後又將部分項目整合,使整體規模突破 8GW,並宣稱提前邁向 10GW 目標。從 0 到 8GW 僅耗時不到一年,顯示其擴張速度之快,已從單純 AI 公司轉型為橫跨能源、地產與基礎建設的重資產運營者。
在競爭策略上,OpenAI 將算力視為關鍵武器。備忘錄指出,公司 2025 年實際可用算力已達 1.9GW,為前一年的三倍,高於競爭對手 Anthropic 的約 1.4GW。OpenAI 預估,該差距將持續擴大,未來其算力可望在短期內升至十餘 GW,而 Anthropic 即使大幅投資,至 2027 年也僅能達 7 至 8GW。
Anthropic 近年亦積極追趕,宣布將在美國投資 500 億美元建設資料中心,並與 Broadcom、Google 合作,預計自 2027 年起新增約 3.5GW 算力,同時透過 Microsoft 與 Amazon 等多家雲端服務商分散負載。然而整體而言,其擴張速度仍難以追上 OpenAI。
業界分析認為,算力不足已成為 AI 產品成長的核心瓶頸。Anthropic 在推出新模型後曾出現服務不穩與多次宕機,反映需求激增對基礎設施的壓力。OpenAI 則藉由提前部署大規模算力,試圖確保產品能快速擴展至企業與開發者市場。
不過,30GW 的宏大目標仍面臨現實挑戰。首先,資料中心實際負載率通常僅 60% 至 70%,難以全年滿載運行;其次,目前公開的 8GW 多屬規劃容量,而非實際可用電力。從規劃到落地,仍需跨越建設進度、設備交付、電網接入及政府審批等多重關卡。
此外,電力基礎設施本身亦存在瓶頸。美國高壓變壓器供應周期動輒兩年以上,核電建設需時 10 至 15 年,輸電線路審批亦進展緩慢。即便取得供電協議,企業仍需面對地方公用事業審查與環保團體對能源與水資源使用的壓力。據悉,OpenAI 近期甚至因電價過高,暫停英國一項大型基建計畫。
美國能源資訊署數據顯示,2025 年商業用電量上升 2.9%、工業用電上升 0.7%,其中商業用電增長主要來自資料中心需求。這意味著 AI 產業已開始實質推升電網負載,並可能進一步影響電價與能源政策。
分析指出,當 AI 競賽推進至接近通用人工智慧 (AGI) 階段,企業競爭焦點已不再僅限於演算法,而是誰能取得更多穩定且低成本的電力資源。OpenAI 所提出的 30GW 目標,既是成長藍圖,也被視為對現有能源與基礎設施體系的極限壓力測試。
整體而言,矽谷 AI 巨頭之間的競爭,正從晶片與模型延伸至電力與基建層面,未來勝負關鍵,將取決於誰能在能源供應與算力部署上建立更深的護城河。
新聞來源 (不包括新聞圖片): 鉅亨網