NVIDIA推核彈級GPU 搭台積4奈米製程「號稱20個可撐全球網路量」

▲輝達(NVIDIA)執行長黃仁勳。(圖/路透社)

▲輝達(NVIDIA)執行長黃仁勳。(圖/路透社)

記者高兆麟/綜合報導

顯示卡大廠輝達(NVIDIA)執行長黃仁勳在22日登場的年度GTC大會上,重磅宣布新一代資料中心Hopper架構繪圖處理器(GPU)NVIDIA H100,將採用台積電4奈米製程,效能大大提升外,黃仁勳更說,只要20個 H100 GPU 就能撐起全世界的網路流量,顯見其效能之高。

[廣告] 請繼續往下閱讀.

為推動下一波人工智慧 (AI) 資料中心的發展,輝達宣布推出採用 NVIDIA Hopper 架構的新一代加速運算平台,效能較上一代平台呈指數級成長。這個以美國電腦科學家先驅 Grace Hopper 命名的全新架構,將接替兩年前推出的 NVIDIA Ampere 架構。

NVIDIA 亦宣佈推出首款採用 Hopper 架構的 GPU 產品 NVIDIA H100,這款 GPU 封裝了 800 億個電晶體,是全球最大且效能最強大的加速器,具突破性的功能,例如革命性的 Transformer Engine 及具高度擴展性的 NVLink 互連技術,可用於推動極大規模的 AI 語言模型、深度推薦系統、基因組學和複雜的數位孿生等領域的發展。

NVIDIA執行長黃仁勳表示,資料中心將成為 AI 工廠,用來處理海量資料並從中提煉出寶貴的智慧。NVIDIA H100 是全球 AI 基礎設施的引擎,讓企業得以加速推動各項 AI 業務的進展。

NVIDIA表示,H100 擁有 800 億個電晶體,採用台積電 4奈米製程、專為滿足 NVIDIA 加速運算需求而設計,在加速 AI、高效能運算、記憶體頻寬、互連和通訊方面具有重大進展,包括每秒近 5TB 的外部連接速度。H100 是首款支援 PCIe Gen5 及首款使用 HBM3 的 GPU 產品,提供每秒 3TB 的記憶體頻寬。20 個 H100 GPU 便足以支撐全世界的網路流量,讓客戶得以運行先進的推薦系統和大型語言模型,即時使用各項資料進行推論。

[廣告] 請繼續往下閱讀..

H100 的多項技術創新擴大了 NVIDIA 在 AI 推論和訓練的領先地位,使 NVIDIA 能夠利用巨大的 AI 模型做到即時和沉浸式應用。H100 讓聊天機器人可以使用全球最強大的單體 transformer 語言模型 Megatron 530B,其傳輸量超過前一代產品達 30 倍,同時滿足即時對話式 AI 所需的次秒級延遲。H100 同時讓研究人員和開發人員能夠訓練像是 Mixture of Experts 這類大規模模型,包含 3,950 億個參數,能將速度提高達九倍,將訓練時間從過去所需的數週減少到數日便能完成。

NVIDIA H100 可以部署在各類型的資料中心內,包括企業內部、雲端、混合雲和邊緣。預計今年稍晚透過全球各大雲端服務供應商及電腦製造商供貨。

NVIDIA 第四代 DGX 系統 DGX H100 搭載八個 H100 GPU,可在全新 FP8 精度下提供 32 petaflops 的 AI 運算表現,這個規模足以滿足大型語言模型、推薦系統、醫療研究及氣候科學的大規模運算需求。

透過第四代 NVLink 技術連接 DGX H100 系統中的每個 GPU,能提供每秒 900GB 的連接速度,高出前一代產品 1.5 倍。NVSwitch 技術讓八個 H100 GPU 能透過 NVLink 連接。一台外部 NVLink 交換器可以連接新一代 NVIDIA DGX SuperPOD 超級電腦中多達 32 個 DGX H100 節點。

[廣告] 請繼續往下閱讀...

Hopper 已經獲得各大雲端服務供應商的支持,包括阿里雲、Amazon Web Services (AWS)、百度智能雲、Google Cloud、Microsoft Azure、Oracle Cloud 和騰訊雲,這些業者計畫將提供基於 H100 的執行個體。