NVIDIA推最新AI晶片「H200」 股價連9漲

▲▼NVIDIA HGX H200。(圖/NVIDIA提供)

▲NVIDIA HGX H200。(圖/NVIDIA提供)

記者高兆麟/綜合報導

輝達(NVIDIA) 宣布推出最新高階人工智慧(AI)繪圖處理器(GPU) H200,速度更快、容量更大,新品問市,輝達股價輝達美股周一(13日)股價應聲上漲2.85美元或0.59%、收486.20美元,已連續第9個交易日走揚,逼近8月31日的歷史收盤新高價493.55美元。

[廣告] 請繼續往下閱讀.

NVIDIA HGX H200,該平台基於 NVIDIA Hopper 架構,配備 NVIDIA H200 Tensor Core GPU,並具有先進的HBM3e記憶體,可為生成式人工智慧和高效能運算的工作負載處理大量資料。

NVIDIA H200 是首款提供 HBM3e 的 GPU,HBM3e 是速度更快、容量更大的記憶體,可加速生成式人工智慧和大型語言模型,同時推進高效能運算工作負載的科學運算。借助 HBM3e,NVIDIA H200 以每秒 4.8 TB 的速度提供 141GB 記憶體,與其前代產品NVIDIA A100 相比,容量幾乎翻倍,頻寬增加 2.4 倍。

全球領先伺服器製造商和雲端服務供應商採用 H200 的系統,預計將於 2024 年第二季開始出貨。

NVIDIA 超大規模與高效能運算部門副總裁 Ian Buck 表示:「要透過生成式人工智慧和高效能運算應用程式創造智慧,必須使用大型、快速的 GPU 記憶體來高速有效地處理大量資料。憑藉 NVIDIA H200,業界領先的端到端人工智慧超級運算平台速度變得更快,能夠解決世界上一些最重要的挑戰。」

[廣告] 請繼續往下閱讀..

NVIDIA Hopper架構與其前代架構相比,實現了前所未有的效能躍進,並透過 H100 的持續軟體增強,包括像是最近釋出NVIDIA TensorRT-LLM這種強大的開源庫,不斷提高效能水準。

H200的推出將帶來更進一步的效能躍進,包括相對於H100,在Llama 2這樣一個擁有700億參數大型語言模型上的推論速度將近翻倍提升。未來的軟體更新預計將為 H200 帶來額外效能的領先優勢,並持續最佳化H200。

NVIDIA H200 將提供包含具有四路和八路配置的 NVIDIA HGX H200 伺服器主機板,其軟硬體皆與HGX 100系統相容。此外,NVIDIA H200亦可與今年8月推出、採用 HBM3e 的 NVIDIA GH200 Grace Hopper 超級晶片搭配使用。

透過這些選項,H200 可以部署在各種類型的資料中心中,包括本地、雲端、混合雲和邊緣環境。 NVIDIA 全球生態系合作夥伴伺服器製造商,包括永擎電子、華碩、戴爾科技集團、Eviden、技嘉科技、慧與科技、鴻佰科技、聯想、雲達科技、美超微、緯創資通和緯穎科技,都可以輕鬆使用基於H200的直接替換方式來更新其基於H100 的系統。

[廣告] 請繼續往下閱讀...

除了CoreWeave、Lambda 和 Vultr之外,從明年開始,亞馬遜網路服務、Google Cloud、Microsoft Azure和Oracle Cloud Infrastructure也將成為第一批部署基於 H200 執行個體的雲端服務供應商。

HGX H200 由 NVIDIA NVLink 和 NVSwitch高速互連技術驅動,可為各種應用工作負載提供最高效能,包括針對超過 1750 億個參數的最大模型,進行大型語言模型訓練和推論。八路 HGX H200 提供超過 32 petaflops 的 FP8 深度學習運算和 1.1TB 總高頻寬記憶體,可在生成式人工智慧和高效能運算應用中實現最高性能。

當與搭載超快速NVLink-C2C互連技術的NVIDIA Grace CPU搭配使用時,H200創造了搭載HBM3e 的GH200 Grace Hopper超級晶片,這是一個專門設計來用於大規模高效能運算和人工智慧應用的整合模組。