
AI模型規模與應用場景不斷擴大,以更高效率、更低能耗提供穩定算力,成為雲端業者與科技巨頭的共同課題。為特定工作量量身打造的ASIC,憑藉高度客製化與系統協同設計優勢,正成為AI基礎建設中不可或缺的關鍵角色。在這波趨勢下,台灣IC設計產業的戰略地位顯著提升。
文/吳旻蓁
在生成式AI引爆全球科技競賽之後,算力已成為攸關國家戰略、產業主導權與企業生死存亡的核心軍備。從ChatGPT掀起第一波浪潮,到各國政府、科技巨頭競相投入大型語言模型(LLM)與加速運算架構,隨著投入金額與能源消耗快速攀升,市場也意識到,真正決定AI效能上限與成本結構的,並非單純堆疊通用型GPU,而是能否打造「為特定工作量而生」的專用晶片。ASIC(特殊應用積體電路)正是在這場算力決戰中,市場正著眼的焦點所在。
ASIC重塑算力版圖
ASIC的核心在於以高度客製化的硬體設計,換取遠高於通用晶片的效能功耗比與長期成本優勢。不同於GPU的廣泛適用性,從架構設計階段即深度綁定目標工作負載,能精準配置運算單元、記憶體層級與資料通道,最大程度降低無效運算與能源浪費,這使ASIC在大規模、長時間運行的AI訓練與推論場景中,能顯著拉開與GPU的成本差距。因而成為雲端服務商(CSP)與大型科技公司在追求極致能效比與總擁有成本(TCO)優化下的必然選擇。
根據研究機構Counterpoint Research報告指出,預計到二七年,全球伺服器專用AI伺服器運算ASIC出貨量將比二四年成長三倍;另外,預計到二八年,全球資料中心AI伺服器運算ASIC晶片的出貨量將突破一五○○萬顆,超過資料中心GPU的出貨量。這一爆炸性成長的背後,是對Google TPU基礎設施的強勁需求、AWS Trainium叢集的持續擴展,以及Meta和微軟隨著其內部晶片產品組合的擴展而帶來的產能提升。
目前Google的TPU v7e已進入關鍵量產階段,而微軟的Maia系列與Meta的MTIA也已在雲端機房大規模部署,預期至二七年將出現具規模的出貨量成長。而在這樣的生態轉變中,台灣的ASIC業者在此一價值鏈中的角色,已從過去被動承接設計委託的「代工設計」,轉型為深度參與架構定義與系統最佳化的系統協同設計(Co-design)核心夥伴。對於高度複雜、投資金額動輒數億美元的AI ASIC專案而言,能否在早期即完成軟硬體協同設計,往往決定了專案的成敗,而這正是台灣業者長期累積的關鍵能力所在。
聯發科衝刺ASIC成新火車頭
放眼全球ASIC產業格局,博通長期被視為雲端AI ASIC的首選供應商,憑藉其完整的IP組合、先進製程經驗與和CSP的深厚合作關係,占據領先地位。然而,Counterpoint Research指出,博通正面臨來自新興陣營日益升高的競爭壓力,其中,由Google與聯發科形成的策略聯盟,已成為最受矚目的挑戰者之一。(全文未完)
全文及圖表請見《先探投資週刊2390期精彩當期內文轉載》

讀者迴響