經濟

輝達宣佈推出最強AI晶片,成本和能耗較前代改善25倍

文/觀察者網

號稱今年全球頭號人工智慧(AI)領域開發者大會的輝達2024 GTC AI大會於美東時間3月18日週一拉開帷幕。今年是輝達時隔五年首次讓年度GTC重回線下,也是此前分析認為輝達要「拿出點真傢伙」的AI盛會。

當地時間週一下午,輝達創始人兼CEO黃仁勳在美國加州聖約瑟SAP中心進行主題為「面向開發者的1#AI峰會」(1#AI Conference for Developers)演講。黃仁勳介紹了運行AI模型的新一代晶片和軟體。輝達正式推出名為Blackwell的新一代AI圖形處理器(GPU),預計將在今年晚些時候發貨。

Blackwell平台能夠在萬億參數級的大型語言模型(LLM)上構建和運行即時生成式AI,而成本和能耗比前身低25倍。

另據媒體報導,輝達CEO黃仁勳在GTC宣佈,將在其企業軟體訂閱中增加一款名為NIM的新產品。NIM可以更容易地使用舊的輝達GPU進行推理,並允許公司繼續使用他們已經擁有的數億個輝達GPU。該產品將使新人工智慧模型的初始訓練推理所需的算力更少。該公司的策略是讓購買輝達伺服器的客戶註冊輝達企業版,每個GPU每年收取費用4500美元。黃仁勳表示,該軟體還將説明在配備GPU的筆記型電腦上運行人工智慧,而不是在雲伺服器上運行。

此外,輝達CEO黃仁勳宣佈推出下一代人工智慧超級電腦,輝達還發佈6G研究雲平台,以便用AI技術推進無線通訊。

輝達推新AI晶片

據外媒報導,輝達於週一宣佈推出新一代人工智慧晶片和用於運行人工智慧模型的軟體。該公司在美國聖約瑟舉行的開發者大會上宣佈了這一消息,正值這家晶片製造商尋求鞏固其作為人工智慧公司首選供應商的地位。

自OpenAI的ChatGPT於2022年末掀起人工智慧熱潮以來,輝達的股價上漲了五倍,總銷售額增長了兩倍多。輝達的高端伺服器GPU對於訓練和部署大型AI模型至關重要。微軟和Meta等公司已經花費了數十億美元購買這些晶片。

新一代AI圖形處理器命名為Blackwell。首款Blackwell晶片名為GB200,將於今年晚些時候發貨。輝達正在用更強大的晶片吸引客戶,以刺激新訂單。例如,各公司和軟體製造商仍在爭相搶購當前一代的「Hopper」H100晶片及類似產品。

「Hopper很棒,但我們需要更大的GPU,」輝達首席執行官黃仁勳週一在該公司於加利福尼亞州舉行的開發者大會上表示。不過,週一盤後交易中,輝達股價下跌超過1%。該公司還推出了名為NIM的創收軟體,該軟體將簡化AI的部署,為客戶提供了在日益增多的競爭者中堅持使用輝達晶片的另一個理由。

輝達高管表示,該公司正從一個唯利是圖的晶片提供商轉變為更像微軟或蘋果的平台提供商,其他公司可以在此基礎上構建軟體。

「Blackwell不僅僅是一款晶片,而是一個平台的名稱,」黃仁勳表示。

輝達企業副總裁Manuvir Das在接受採訪時表示:「可銷售的商業產品是GPU,而軟體則是為了説明人們以不同的方式使用GPU。當然,我們現在仍然這樣做。但真正改變的是,我們現在真的有了商務軟體業務。」

Das表示,輝達的新軟體將更容易在任何輝達GPU上運行程式,甚至是那些可能更適合部署而不是構建AI的老舊GPU。「如果你是開發者,你有一個有趣的模型,你希望人們採用它,如果你把它放入NIM中,我們會確保它可以在我們所有的GPU上運行,這樣你就可以覆蓋很多人,」Das說道。

Blackwell擁有六項革命性技術

輝達每兩年更新一次其GPU架構,實現性能的飛躍。過去一年發佈的許多AI模型都是在該公司的Hopper架構上訓練的,該架構被用於H100等晶片,於2022年宣佈推出。

據悉,輝達稱,Blackwell擁有六項革命性的技術,可以支援多達10萬億參數的模型進行AI訓練和即時LLM推理:

全球最強大的晶片:Blackwell架構GPU由2080億個電晶體組成,採用量身定制的台積電4納米工藝製造,兩個reticle極限GPU裸片將10 TB/秒的晶片到晶片鏈路連接成單個統一的GPU。

第二代Transformer引擎:結合了Blackwell Tensor Core技術和TensorRT-LLM和NeMo Megatron框架中的輝達先進動態範圍管理演算法,Blackwell將通過新的4位浮點AI支持雙倍的計算和模型大小推理能力。

第五代NVLink:為提高數萬億參數和混合專家AI模型的性能,最新一代輝達NVLink為每個GPU提供了突破性的1.8TB/s雙向輸送量,確保最複雜LLM之間多達576個GPU之間的無縫高速通信。

RAS引擎:Blackwell支援的GPU包含一個專用引擎,實現可靠性、可用性和服務性。此外,Blackwell架構還增加了晶片級功能,利用基於AI的預防性維護進行診斷和預測可靠性問題。這可以最大限度地延長系統正常執行時間,並提高大部署規模AI的彈性,使其能連續運行數周甚至數月,並降低運營成本。

安全人工智慧:先進的機密計算功能可在不影響性能的情況下保護AI模型和客戶資料,並支援新的本機介面加密協定,這對於醫療保健和金融服務等隱私敏感行業至關重要。

解壓縮引擎:專用解壓縮引擎支援最新格式,加快資料庫查詢,提供資料分析和資料科學的最高性能。未來幾年,在企業每年花費數百億美元的資料處理方面,將越來越多地由GPU加速。

Blackwell GPU體積龐大,將兩個單獨製造的晶粒組合成一個由台積電製造的晶片。它還將作為一款名為GB200 NVLink 2的整個伺服器提供,該伺服器結合了72個Blackwell GPU和其他旨在訓練AI模型的輝達部件。

亞馬遜、谷歌、微軟和甲骨文將通過雲服務提供對GB200的訪問。GB200將兩個B200 Blackwell GPU與一個基於Arm的Grace CPU配對。輝達表示,亞馬遜網路服務將構建一個包含20000個GB200晶片的伺服器集群。

輝達沒有提供新款GB200或其使用系統的成本。據分析師估計,輝達基於Hopper的H100晶片成本在2.5萬至4萬美元之間,而整個系統的成本高達20萬美元。

輝達推理微服務

輝達還宣佈,將在其輝達企業軟體訂閱中添加一款名為NIM(輝達推理微服務)的新產品。NIM讓使用較舊的輝達GPU進行推理(或運行AI軟體的過程)變得更加簡單,並允許公司繼續使用其已經擁有的數億個輝達GPU。與新AI模型的初始訓練相比,推理所需的計算能力較少。對於那些希望運行自己的AI模型,而不是從OpenAI等公司購買AI結果作為服務的企業來說,NIM無疑是他們的得力助手。

輝達的策略是吸引購買基於輝達的伺服器的客戶註冊輝達企業版,每個GPU每年的許可費為4500美元。

輝達將與微軟或Hugging Face等AI公司合作,確保他們的AI模型能夠在所有相容的輝達晶片上運行。隨後,開發者可以使用NIM在自有伺服器或基於雲端的輝達伺服器上高效運行模型,無需繁瑣的配置過程。

「在我原本調用OpenAI的代碼中,我只需替換一行代碼,將其指向從輝達獲取的NIM即可。」Das說道。

輝達表示,該軟體還將助力AI在配備GPU的筆記型電腦上運行,而非僅限於雲端伺服器。

連結:英伟达宣布推出最强AI芯片,成本和能耗较前代改善25倍 (guancha.cn)