OpenAI 推出 GPT 5.3 Codex Spark 程式碼模型 落地 Cerebras 晶片運行

OpenAI 推出程式碼模型 GPT 5.3 Codex Spark,並在 Cerebras 晶片上運作,降低對 NVIDIA 的單一依賴。OpenAI 近日宣佈推出首款於 Cerebras Systems 晶片執行的 AI 模型 —— GPT-5.3-Codex-Spark。這是 OpenAI 首度將其產品的運算基礎移出 NVIDIA 晶片,不僅顯示其分散晶片供應鏈的策略開始付諸實踐,亦為非 NVIDIA 陣營的 AI 加速器注入強心針。
這款 GPT-5.3-Codex-Spark 主打「極速推論」,專門為程式師設計。對於軟體工程師而言,AI 視助工具最重要的是「即時反應」。GPT-5.3-Codex-Spark 允許開發者快速完成修改程式碼、執行測試等日常任務,甚至能隨時中斷當前作業並指派新任務,大幅減少等待 AI 生成結果的時間。這項速度上的提升,來自於 OpenAI 上個月與 Cerebras Systems 簽訂的一份百億美元合約,該模型目前運行在 Cerebras Systems 的旗艦級晶片 Wafer Scale Engine 3 (WSE-3) 上。
為了配合 Cerebras Systems 的硬體架構,OpenAI 不僅針對新晶片進行最佳化,還對整體推論運算流程進行大幅度的改良。這些底層升級帶來了顯著效能提升:
1. 客戶端與伺服器之間的通訊速度大幅提升,來回延遲降低 80%。 2. AI 開始吐出第一段程式碼的反應時間減半,首字元產出時間 (TTFT) 縮短 50%。 3. 每 Token 的開銷降低 30%,運算成本顯著下降。 4. 提高 WebSocket 連線時間,預設啟用以確保對話過程的穩定與即時性。
目前 GPT-5.3-Codex-Spark 仍是一個純文字模型,具備 128K 的上下文長度 (Context Window),暫不支援圖片或多模態輸入。該模型現正以「研究預覽」的形式率先開放給 ChatGPT Pro 訂閱用戶測試,未來幾週內將逐步擴大開放範圍。
這次合作對 Cerebras Systems 當然是一次重要的進步,在 NVIDIA 長期霸佔的市場中撕開了一道重大突破口。對於 OpenAI 而言,這只是其近期一系列「分散供應商風險」操作的一部分。去年 10 月,OpenAI 已經與 AMD 達成多年期協議,預計部署高達 6 GW 的 GPU 算力;同月內也與博通簽約,開始開發客製化晶片 (ASIC) 與網路元件。
面對外界關於「OpenAI 與 NVIDIA 關係緊張」的傳聞,OpenAI 官方仍出面澄清,強調與 NVIDIA 的夥伴關係是「基礎性的」,並重申 NVIDIA 的硬體依然是 OpenAI 訓練和推論架構的核心。引進 Cerebras Systems、AMD 與博通晶片純粹是為了「擴展生態系統」,而非對立於 NVIDIA。








