輝達AI新品Blackwell問世 黃仁勳欽點9大廠

[ad_1]

記者高兆麟/綜合報導

NVIDIA今日在GTC大會中發表NVIDIA Blackwell平台,為運算新時代提供動力,使世界各地的組織能夠在兆級參數大型語言模型上構建和運行即時生成式人工智慧(AI),而成本和能耗比其前身最低可達25倍。

▲NVIDIA GB200 Grace Blackwell 超級晶片。(圖/NVIDIA提供)

輝達(NVIDIA)創辦人暨執行長黃仁勳點名9大廠商已搶先成為新產品的客戶。計劃採用 Blackwell 的眾多組織包括Amazon Web Services、戴爾科技集團、Google、Meta、微軟、OpenAI、甲骨文、Tesla和xAI。

Blackwell架構GPU配備了2080億個電晶體,採用台積電客製化4奈米製程製造,兩倍光罩尺寸GPU裸晶透過10 TB/s的晶片到晶片互連連接成單個、統一GPU。NVIDIA GB200 Grace Blackwell超級晶片透過 900GB/s 超低功耗NVLink晶片到晶片互連技術將兩個 NVIDIA B200 Tensor Core GPU 與NVIDIA Grace CPU連接起來。

Blackwell GPU 架構具有六項用於加速運算的變革性技術,這將有助於在資料處理、工程模擬、電子設計自動化、電腦輔助藥物設計、量子運算和生成式AI方面實現突破,這些對NVIDIA都是新興產業機會。

黃仁勳表示:「三十年來,我們一直在追求加速運算,目標是實現深度學習和AI等變革性突破。生成式AI是我們這個時代的決定性技術。 Blackwell是推動這場新工業革命的引擎。,我們將與世界上最具活力的公司合作,實現人工智慧對每個產業的承諾。」

為了獲得最高的 AI 性能,GB200 驅動的系統可以與今天宣布的 NVIDIA Quantum-X800 InfiniBand 和 Spectrum-X800 乙太網路平台連接,這些平台可提供速度高達 800Gb/s 的先進網路。

GB200是 NVIDIA GB200 NVL72的關鍵元件,NVIDIA GB200 NVL72 是一種多節點、液冷、機架規模系統,適用於運算最密集的工作負載。 它結合了 36 個 Grace Blackwell 超級晶片,其中包括透過第五代 NVLink 互連的 72 個 Blackwell GPU 和 36 個 Grace CPU。 此外,GB200 NVL72 還包括 NVIDIA BlueField®-3 資料處理單元,可在超大規模 AI 雲端中實現雲端網路加速、可組合儲存、零信任安全性和 GPU 運算彈性。 與NVIDIA H100 Tensor Core GPU相比,GB200 NVL72可提供高達30倍的大型語言模型推論工作負載效能,並將成本和能源消耗降低多達25倍。

NVIDIA 也提供 HGX B200,此伺服器主機板能透過NVLink連接八個 B200 GPU,以支援基於 x86 的生成式 AI 平台。HGX B200 透過 NVIDIA Quantum-2 InfiniBand 和 Spectrum-X 乙太網路平台支援高達 400Gb/s 的網路速度。


標題:輝達AI新品Blackwell問世 黃仁勳欽點9大廠

鄭重聲明:本文版權歸原作者所有,轉載文章僅爲傳播更多信息之目的,如有侵權行爲,請第一時間聯系我們修改或刪除,多謝。

[ad_2]