微軟(Microsoft)今年(2026)元月正式發布的Maia 200,吹皺一池春水。也讓台灣各晶片公司磨拳擦掌、躍躍欲試。比較同類型晶片,它主要被歸類為「雲端 AI 加速器」或「客製化 AIMai 晶片」。
Maia 200 的主要競爭對手是其他雲端巨頭(Hyperscalers)。大家都希望擺脫對 NVIDIA 依賴而自力研發晶片,摘要如下表
| 廠商 | 同類型晶片 |
| TPU(Tensor Processing Unit) | |
| Amazon | Trainum/Interentia |
| Meta | MTIA(Meta Training and Inference Accelerator) |
| NVIDIA | Blackwell GPU |
| Croq | LPU(Language Processing Unit) |
Maia 200 屬於典型的 ASIC(特殊應用積體電路),專為「特定用途」而設計的晶片。不像傳統 CPU 那樣處理通用任務,而是為了「AI 推理(Inference)」和「大規模語言模型(LLM)」運算而量身打造。
「優勢」相較於通用型的 GPU,Maia 200 透過 ASIC 設計,去除了不需要的運算單元,能以更低的功耗(750W TDP)提供更高的 FP4/FP8 運算效率。
進一步導入了「CPO(共同封裝光學)」技術。在 2026 年的技術趨勢中,Maia 200 是「推動 CPO 落地」的重要產品。傳統電學傳輸在超大規模集群(如 6,144 顆晶片並聯)中會遇到嚴重的訊號損耗和功耗; 結合了矽光子(Silicon Photonics)技術,將光通訊元件與晶片共同封裝(CPO)改用光學互連實現高達 2.8 TB/s 的雙向頻寬,讓資料在晶片與晶片之間像光速一樣傳遞,解決了 AI 運算中的通訊瓶頸。
總之,Maia 200 是一顆採用 「CPO 技術」的 AI 「ASIC 晶片」。它的出現,代表雲端廠商不再只是買晶片,而是進入了「軟硬一體」的自研時代。
沒有留言:
張貼留言