▲NVIDIA。(圖/記者高兆麟攝)
記者高兆麟/綜合報導
Google Cloud與NVIDIA今日宣布推出新的人工智慧基礎架構和軟體,提供客戶建立和部署大規模的生成式人工智慧模型,並加速資料科學工作負載。
在Google Cloud Next的一場爐邊對談中,Google Cloud 執行長 Thomas Kurian與NVIDIA創辦人暨執行長黃仁勳討論了這個合作夥伴關係如何將端到端的機器學習服務帶給全球最大型的人工智慧客戶,包括在基於 NVIDIA 技術建構的 Google Cloud 服務中,使運行人工智慧超級電腦變得更加容易。新的軟硬體整合使用了過去兩年來Google DeepMind和Google研究團隊所使用的相同NVIDIA技術。
黃仁勳表示:「我們正處於一個加速運算和生成式人工智慧相結合的轉折點,以前所未有的速度推動創新。我們與Google Cloud的擴大合作將幫助開發人員加速他們在基礎架構、軟體和服務等方面的工作,從而提高能源效率並降低成本。」
Kurian表示:「Google Cloud在人工智慧創新方面有著悠久的歷史,旨在促進和加速我們客戶的創新。許多Google 產品都是基於NVIDIA GPU 建構和提供服務的,我們許多客戶正在尋求 NVIDIA 的加速運算,以高效開發大型語言模型,從而推動生成式人工智慧的發展。」
Google用於建立大型語言模型(LLM)的框架PaxML,現已經優化以支援NVIDIA加速運算。
PaxML 最初是為了跨越多個 Google TPU 加速器切片而構建的,現在使開發人員能夠使用 NVIDIA H100 和 A100 Tensor Core GPU 進行先進且完全可配置的實驗和規模。NVIDIA NGC軟體目錄中即刻起提供GPU優化的PaxML容器。 此外,PaxML 在 JAX 上運行,JAX 已針對利用 OpenXLA 編譯器的 GPU 進行了優化。
Google DeepMind和其他Google研究人員是首批使用PaxML與NVIDIA GPU進行探索性研究的團隊。NVIDIA NGC 容器登錄服務中將立即提供用於PaxML的NVIDIA優化容器,提供全球正在構建新一代人工智慧應用的研究人員、新創公司和企業使用。
此外,兩家公司還宣布Google透過Google Dataproc服務將無伺服器Spark與NVIDIA GPU整合。這將幫助資料科學家加速Apache Spark的工作負載,以準備進行人工智慧開發所需的資料。
Google Cloud今天宣布其以NVIDIA H100 GPU提供動力、專門構建的Google Cloud A3虛擬機器將在下個月正式推出,使NVIDIA人工智慧平台更易用於廣泛的工作負載。與前一代相比,A3虛擬機器的訓練速度提高了3倍,網路頻寬也有顯著的提升。預計未來幾週內,在 VertexAI上將普遍可用H100 GPU ,使客戶能夠快速開發生成式人工智慧大型語言模型。
Google Cloud也將成為世界上首批能夠使用NVIDIA DGX GH200 人工智慧超級電腦的公司之一,該超級電腦搭載了NVIDIA Grace Hopper超級晶片,可用於探索其在生成式人工智慧工作負載方面的能力。
讀者迴響