號稱今年全球頭號人工智能(AI)領(lǐng)域開發(fā)者大會的英偉達(dá)2024 GTC AI大會于美東時間3月18日周一拉開帷幕。今年是英偉達(dá)時隔五年首次讓年度GTC重回線下,也是此前分析認(rèn)為英偉達(dá)要“拿出點(diǎn)真家伙”的AI盛會。
當(dāng)?shù)貢r間周一下午,英偉達(dá)創(chuàng)始人兼CEO黃仁勛在美國加州圣何塞SAP中心進(jìn)行主題為“面向開發(fā)者的1#AI峰會”(1#AI Conference for Developers)演講。黃仁勛介紹了運(yùn)行AI模型的新一代芯片和軟件。英偉達(dá)正式推出名為Blackwell的新一代AI圖形處理器(GPU),預(yù)計(jì)將在今年晚些時候發(fā)貨。
Blackwell平臺能夠在萬億參數(shù)級的大型語言模型(LLM)上構(gòu)建和運(yùn)行實(shí)時生成式AI,而成本和能耗比前身低25倍。
英偉達(dá)CEO黃仁勛在GTC宣布,將在其企業(yè)軟件訂閱中增加一款名為NIM的新產(chǎn)品。NIM可以更容易地使用舊的英偉達(dá)GPU進(jìn)行推理,并允許公司繼續(xù)使用他們已經(jīng)擁有的數(shù)億個英偉達(dá)GPU。該產(chǎn)品將使新人工智能模型的初始訓(xùn)練推理所需的算力更少。該公司的策略是讓購買英偉達(dá)服務(wù)器的客戶注冊英偉達(dá)企業(yè)版,每個GPU每年收取費(fèi)用4500美元。黃仁勛表示,該軟件還將幫助在配備GPU的筆記本電腦上運(yùn)行人工智能,而不是在云服務(wù)器上運(yùn)行。
此外,英偉達(dá)CEO黃仁勛宣布推出下一代人工智能超級計(jì)算機(jī),英偉達(dá)還發(fā)布6G研究云平臺,以便用AI技術(shù)推進(jìn)無線通信。
英偉達(dá)推新AI芯片
英偉達(dá)于周一宣布推出新一代人工智能芯片和用于運(yùn)行人工智能模型的軟件。該公司在美國圣何塞舉行的開發(fā)者大會上宣布了這一消息,正值這家芯片制造商尋求鞏固其作為人工智能公司首選供應(yīng)商的地位。
自O(shè)penAI的ChatGPT于2022年末掀起人工智能熱潮以來,英偉達(dá)的股價(jià)上漲了五倍,總銷售額增長了兩倍多。英偉達(dá)的高端服務(wù)器GPU對于訓(xùn)練和部署大型AI模型至關(guān)重要。微軟和Meta等公司已經(jīng)花費(fèi)了數(shù)十億美元購買這些芯片。
新一代AI圖形處理器命名為Blackwell。首款Blackwell芯片名為GB200,將于今年晚些時候發(fā)貨。英偉達(dá)正在用更強(qiáng)大的芯片吸引客戶,以刺激新訂單。例如,各公司和軟件制造商仍在爭相搶購當(dāng)前一代的“Hopper”H100芯片及類似產(chǎn)品。
“Hopper很棒,但我們需要更大的GPU,”英偉達(dá)首席執(zhí)行官黃仁勛周一在該公司于加利福尼亞州舉行的開發(fā)者大會上表示。不過,周一盤后交易中,英偉達(dá)股價(jià)下跌超過1%。該公司還推出了名為NIM的創(chuàng)收軟件,該軟件將簡化AI的部署,為客戶提供了在日益增多的競爭者中堅(jiān)持使用英偉達(dá)芯片的另一個理由。
英偉達(dá)高管表示,該公司正從一個唯利是圖的芯片提供商轉(zhuǎn)變?yōu)楦裎④浕蛱O果的平臺提供商,其他公司可以在此基礎(chǔ)上構(gòu)建軟件。
“Blackwell不僅僅是一款芯片,而是一個平臺的名稱,”黃仁勛表示。
英偉達(dá)企業(yè)副總裁Manuvir Das在接受采訪時表示:“可銷售的商業(yè)產(chǎn)品是GPU,而軟件則是為了幫助人們以不同的方式使用GPU。當(dāng)然,我們現(xiàn)在仍然這樣做。但真正改變的是,我們現(xiàn)在真的有了商業(yè)軟件業(yè)務(wù)。”
Das表示,英偉達(dá)的新軟件將更容易在任何英偉達(dá)GPU上運(yùn)行程序,甚至是那些可能更適合部署而不是構(gòu)建AI的老舊GPU。“如果你是開發(fā)者,你有一個有趣的模型,你希望人們采用它,如果你把它放入NIM中,我們會確保它可以在我們所有的GPU上運(yùn)行,這樣你就可以覆蓋很多人,”Das說道。
Blackwell擁有六項(xiàng)革命性技術(shù)
英偉達(dá)每兩年更新一次其GPU架構(gòu),實(shí)現(xiàn)性能的飛躍。過去一年發(fā)布的許多AI模型都是在該公司的Hopper架構(gòu)上訓(xùn)練的,該架構(gòu)被用于H100等芯片,于2022年宣布推出。
據(jù)悉,英偉達(dá)稱,Blackwell擁有六項(xiàng)革命性的技術(shù),可以支持多達(dá)10萬億參數(shù)的模型進(jìn)行AI訓(xùn)練和實(shí)時LLM推理:
全球最強(qiáng)大的芯片:Blackwell架構(gòu)GPU由2080億個晶體管組成,采用量身定制的臺積電4納米工藝制造,兩個reticle極限GPU裸片將10 TB/秒的芯片到芯片鏈路連接成單個統(tǒng)一的GPU。
第二代Transformer引擎:結(jié)合了Blackwell Tensor Core技術(shù)和TensorRT-LLM和NeMo Megatron框架中的英偉達(dá)先進(jìn)動態(tài)范圍管理算法,Blackwell將通過新的4位浮點(diǎn)AI支持雙倍的計(jì)算和模型大小推理能力。
第五代NVLink:為提高數(shù)萬億參數(shù)和混合專家AI模型的性能,最新一代英偉達(dá)NVLink為每個GPU提供了突破性的1.8TB/s雙向吞吐量,確保最復(fù)雜LLM之間多達(dá)576個GPU之間的無縫高速通信。
RAS引擎:Blackwell支持的GPU包含一個專用引擎,實(shí)現(xiàn)可靠性、可用性和服務(wù)性。此外,Blackwell架構(gòu)還增加了芯片級功能,利用基于AI的預(yù)防性維護(hù)進(jìn)行診斷和預(yù)測可靠性問題。這可以最大限度地延長系統(tǒng)正常運(yùn)行時間,并提高大部署規(guī)模AI的彈性,使其能連續(xù)運(yùn)行數(shù)周甚至數(shù)月,并降低運(yùn)營成本。
安全人工智能:先進(jìn)的機(jī)密計(jì)算功能可在不影響性能的情況下保護(hù)AI模型和客戶數(shù)據(jù),并支持新的本機(jī)接口加密協(xié)議,這對于醫(yī)療保健和金融服務(wù)等隱私敏感行業(yè)至關(guān)重要。
解壓縮引擎:專用解壓縮引擎支持最新格式,加快數(shù)據(jù)庫查詢,提供數(shù)據(jù)分析和數(shù)據(jù)科學(xué)的最高性能。未來幾年,在企業(yè)每年花費(fèi)數(shù)百億美元的數(shù)據(jù)處理方面,將越來越多地由GPU加速。
Blackwell GPU體積龐大,將兩個單獨(dú)制造的晶粒組合成一個由臺積電制造的芯片。它還將作為一款名為GB200 NVLink 2的整個服務(wù)器提供,該服務(wù)器結(jié)合了72個Blackwell GPU和其他旨在訓(xùn)練AI模型的英偉達(dá)部件。
亞馬遜、谷歌、微軟和甲骨文將通過云服務(wù)提供對GB200的訪問。GB200將兩個B200 Blackwell GPU與一個基于Arm的Grace CPU配對。英偉達(dá)表示,亞馬遜網(wǎng)絡(luò)服務(wù)將構(gòu)建一個包含20000個GB200芯片的服務(wù)器集群。
英偉達(dá)沒有提供新款GB200或其使用系統(tǒng)的成本。據(jù)分析師估計(jì),英偉達(dá)基于Hopper的H100芯片成本在2.5萬至4萬美元之間,而整個系統(tǒng)的成本高達(dá)20萬美元。
英偉達(dá)推理微服務(wù)
英偉達(dá)還宣布,將在其英偉達(dá)企業(yè)軟件訂閱中添加一款名為NIM(英偉達(dá)推理微服務(wù))的新產(chǎn)品。NIM讓使用較舊的英偉達(dá)GPU進(jìn)行推理(或運(yùn)行AI軟件的過程)變得更加簡單,并允許公司繼續(xù)使用其已經(jīng)擁有的數(shù)億個英偉達(dá)GPU。與新AI模型的初始訓(xùn)練相比,推理所需的計(jì)算能力較少。對于那些希望運(yùn)行自己的AI模型,而不是從OpenAI等公司購買AI結(jié)果作為服務(wù)的企業(yè)來說,NIM無疑是他們的得力助手。
英偉達(dá)的策略是吸引購買基于英偉達(dá)的服務(wù)器的客戶注冊英偉達(dá)企業(yè)版,每個GPU每年的許可費(fèi)為4500美元。
英偉達(dá)將與微軟或Hugging Face等AI公司合作,確保他們的AI模型能夠在所有兼容的英偉達(dá)芯片上運(yùn)行。隨后,開發(fā)者可以使用NIM在自有服務(wù)器或基于云端的英偉達(dá)服務(wù)器上高效運(yùn)行模型,無需繁瑣的配置過程。
“在我原本調(diào)用OpenAI的代碼中,我只需替換一行代碼,將其指向從英偉達(dá)獲取的NIM即可?!盌as說道。
英偉達(dá)表示,該軟件還將助力AI在配備GPU的筆記本電腦上運(yùn)行,而非僅限于云端服務(wù)器。
(稿件來源:每經(jīng)網(wǎng))