聯發科苗栗銅鑼AI研發中心啟用 首座NVIDIA DGX SuperPOD運算叢集亮相
- 聯發科(2454)今(7)日正式啟用座落於苗栗銅鑼科學園區的研發資料中心,成為全台首座整合NVIDIA DGX B200平台與浸沒式冷卻技術的AI高算力基地,以因應邊緣AI與雲端AI解決方案的研發需求。
- 研發中心設計遵循綠建築鑽石級規格,將成為台灣半導體產業AI研發關鍵樞紐,支撐未來Wi-Fi 7/8、6G及先進封裝等技術的創新應用。
- 據聯發科工程師說明,該系統在30°C室溫環境下,伺服器溫度可穩定維持在45°C以下,較傳統方案降低15°C,大幅延長硬體壽命。
- 3兆美元),更針對聯發科近年市值突破5兆元的挑戰,強化技術自主性以應對金管會對市場結構的監管關注。
聯發科(2454)今(7)日正式啟用座落於苗栗銅鑼科學園區的研發資料中心,成為全台首座整合NVIDIA DGX B200平台與浸沒式冷卻技術的AI高算力基地,以因應邊緣AI與雲端AI解決方案的研發需求。該中心採用晶圓廠等級供電系統,規劃分三期建置,首期2026年完工,每月可處理1380億個Token並完成2.4萬次模型訓練迭代,能源使用效率達PUE 1.1,冷卻效率提升2.6倍。此舉標誌聯發科深化AI技術佈局,透過全球首座DGX SuperPOD運算叢集,強化從邊緣裝置到雲端服務的全鏈整合能力,同時落實永續發展承諾。研發中心設計遵循綠建築鑽石級規格,將成為台灣半導體產業AI研發關鍵樞紐,支撐未來Wi-Fi 7/8、6G及先進封裝等技術的創新應用。
全台首座DGX SuperPOD平台技術突破
聯發科研發資料中心最大亮點在於建置全台首座以NVIDIA DGX B200平台驅動的DGX SuperPOD運算叢集,此平台不僅是台灣首例,更整合NVIDIA NIM推論微服務與TensorRT-LLM軟體架構,將推論速度提升40%,Token傳輸量提高60%。該平台每月可處理高達1380億個Token,達成超過2.4萬次模型訓練迭代,足以支援大規模語言模型(LLM)的開發需求。據技術分析,DGX B200基於Blackwell架構,單節點算力達1.2PFLOPS,透過模組化設計可彈性擴充至數千節點規模,有效解決傳統AI訓練中常見的資源擁塞問題。此技術不僅降低研發成本,更透過軟體堆疊(SoftwareStacks)實現跨平台整合,使邊緣裝置如智慧手機、物聯網設備與雲端伺服器能同步演進。業界觀察指出,此配置已超越一般企業級AI實驗室規模,直追國際科技巨頭的研發水準,將加速聯發科在生成式AI應用的產品化進程,特別針對智慧影像處理、語音辨識等高頻率場景提供實測數據支持。
永續節能技術引領產業新標準
資料中心採用單相浸沒式冷卻技術,將伺服器完全浸入專為傳導熱能設計的非導電絕緣液中運作,取代傳統風冷系統,使能源使用效率(PUE)優化至1.1,冷卻效率提升2.6倍。此技術原理在於絕緣液具高熱傳導係數,能直接吸收伺服器運算產生的熱能,並透過外部冷卻系統循環散熱,免除風扇運轉所產生的噪音與震動,同時隔絕空氣中灰塵對晶片的侵蝕。據聯發科工程師說明,該系統在30°C室溫環境下,伺服器溫度可穩定維持在45°C以下,較傳統方案降低15°C,大幅延長硬體壽命。更關鍵的是,此技術節省30%電力消耗,單一資料中心年減碳量預估達1,200公噸,符合台灣2050淨零碳排目標。此舉不僅顛覆台灣資料中心傳統設計,更引領半導體產業朝向「晶圓廠級」供電穩定性邁進,其穩定度達99.999%,遠高於一般企業級資料中心的99.9%標準,確保AI訓練過程零中斷風險。業內專家指出,此技術將成為未來AI研發中心的標配,尤其適用於高密度運算場景,如自動駕駛模擬或基因序列分析。
永續戰略與AI佈局的全球競爭力
聯發科總經理陳冠州強調,此研發中心是公司AI戰略核心支點,展現對邊緣AI與雲端AI解決方案的長期投入。中心建置自2023年起遵循綠建築鑽石級規格,透過模組化設計分三期推進,首期聚焦AI高算力平台,後續將整合Wi-Fi 7/8、5G衛星通訊及6G技術研發,形成完整生態系。此舉不僅回應全球AI商機擴張(預估2027年市場達1.3兆美元),更針對聯發科近年市值突破5兆元的挑戰,強化技術自主性以應對金管會對市場結構的監管關注。陳冠州指出:「研發中心的節能設計體現永續承諾,同時確保我們能以更低成本開發下一代AI晶片,例如針對智慧手機端的高效能推論引擎。」此戰略與聯發科近期在先進製程(如4nm)及Chiplet封裝技術的佈局形成協同效應,使研發週期縮短30%。國際分析機構IDC指出,聯發科透過此中心將加速AI解決方案落地,特別在亞洲區市場的邊緣裝置應用,預計2025年相關產品營收貢獻率將達35%。此舉更凸顯台灣半導體產業從製造轉向研發創新關鍵轉型,為全球AI供應鏈提供高穩定性、低碳足跡的研發基地。













