
資本看空,只是在讓英偉達(dá)股票更「親民」而已。
「AI 屆春晚」過去以來一直是 GTC 的外號(hào)之一,但在 GTC 2025 的開幕主題演講中,這個(gè)梗被英偉達(dá)創(chuàng)始人、愛穿皮衣的老黃「偷了」。 「我覺得 GTC 已經(jīng)變成了 AI 界的超級(jí)碗」
黃仁勛這樣介紹 GTC 的盛況?!傅谶@里,AI 會(huì)讓我們每個(gè)人都成為贏家」。
在 GTC,沒有輸家好嗎|圖片來源:英偉達(dá)
但面對(duì)近期股價(jià)的數(shù)次暴跌,尤其是以 DeepSeek-R1 為代表的、對(duì)業(yè)內(nèi)「我們真的需要這么多 GPU 嗎」的質(zhì)疑,GTC 作為「AI 春晚」,英偉達(dá)就必須拿出更多真的能鎮(zhèn)住場(chǎng)子的「硬貨」出來。
雖然不知是否也是受到股價(jià)影響,今天老黃的口條,相比以往明顯要「磕巴」了不少,但他在 150 分鐘內(nèi),接連給從 AI Agent 到數(shù)據(jù)中心的 AI 芯片、再到具身智能的多個(gè)行業(yè)生態(tài),再次指明了未來。
再一次地,英偉達(dá)看到了 AI 的未來,現(xiàn)在,他們需要讓全世界一起相信。
Agentic 拯救英偉達(dá)
「It's all about Tokens」。
不同往屆 GTC 上來先介紹英偉達(dá)的硬通貨,今天的開場(chǎng),老黃用 40 分鐘解讀了:Agentic AI 時(shí)代,英偉達(dá)的立身之本——越來越高效地處理 tokens(詞元)。單位時(shí)間內(nèi)能處理的 tokens 百倍萬倍增長(zhǎng),同時(shí)單位算力成本和能耗下降。
在他看來,英偉達(dá)踩中 AI 風(fēng)口的十幾年,AI 已經(jīng)經(jīng)歷了三代技術(shù)范式的轉(zhuǎn)移。最早是判別式 AI(語音識(shí)別、圖像識(shí)別),接著是生成式 AI,然后就是當(dāng)下我們身處的 Agentic AI,未來會(huì)是影響物理世界的 Physical AI。
黃仁勛秀出了 AI 技術(shù)發(fā)展的路徑|圖片來源:英偉達(dá)
每一代 AI 技術(shù)遷移,計(jì)算的方式都會(huì)發(fā)生改變。
從 AlexNet 到 ChatGPT,是從檢索的計(jì)算方式轉(zhuǎn)變?yōu)樯傻挠?jì)算方式。
而當(dāng) AI 從 ChatGPT 那種靠預(yù)測(cè)下一個(gè) tokens、大概率出現(xiàn)幻覺的生成式 AI,邁向 Deep Research、Manus 這樣的 agentic AI 應(yīng)用時(shí),每一層計(jì)算都不同,所需要的 tokens 比想象的多 100 倍。因?yàn)樵?Agentic AI 應(yīng)用中,上一個(gè) token 是下一個(gè) token 生成時(shí)輸入的上下文、是感知、規(guī)劃、行動(dòng)的一步步推理。
此刻,Agentic AI 就是我們現(xiàn)在所處的時(shí)代,AI 正在經(jīng)歷一個(gè)新的拐點(diǎn),它變得越來越智能、應(yīng)用越來越廣泛,同時(shí)也需要更多的算力來支持它。
老黃用同一段提示詞下,代表兩種技術(shù)范式的開源模型——Llama3.3 和 Deepseek-R1 所消耗的 tokens 舉例說明,以強(qiáng)化學(xué)習(xí)為主導(dǎo)的推理類應(yīng)用,消耗了越來越多的 tokens、同時(shí)也讓 AI 應(yīng)用也變得越來越可用。
這段提示詞是:「在我的婚宴上,需要 7 個(gè)人圍著一張桌子坐,我的父母和岳父岳母不應(yīng)該坐在一起。而且,我媳婦堅(jiān)持說她坐在我左邊照相時(shí)會(huì)更好看,但同時(shí)我需要坐在伴郎旁邊。我們這一輪怎么坐?如果我們邀請(qǐng)牧師和我們坐在一起呢?」
DeepSeek-R1 的 Reasoning 模型給出了近 20 倍于傳統(tǒng)大模型的 Token 量|圖片來源:英偉達(dá)
如上圖左邊,Llama3.3 作為大語言模型,用不到 500 個(gè) tokens 快速回答,但安排的客人座位并不滿足要求。對(duì)比之下,右邊的 R1 作為推理模型,用掉 8000 多個(gè) tokens 得出了正確答案。
差別在于,左邊的大語言模型只嘗試了一次,右邊的推理模型嘗試了所有不同的可能性,然后反思、驗(yàn)證了自己的答案。而且推理模型需要更多的計(jì)算,因?yàn)槟P透鼜?fù)雜。R1 的尺寸是 6800 億個(gè)參數(shù),它的下一代版本可能有數(shù)萬億個(gè)參數(shù)。
更進(jìn)一步,Agentic AI 應(yīng)用是無數(shù)次調(diào)用類似 DeepSeek-R1 做推理的過程,需要的計(jì)算只會(huì)更多。這也是為什么 ChatGPT 可以免費(fèi)、Deep Research 和 Operator 這種 agent 免費(fèi)不起的原因(當(dāng)前 OpenAI 分別以 20 美元、200 美元的價(jià)格提供服務(wù))。
用預(yù)訓(xùn)練放緩來審判英偉達(dá)還是太早了,因?yàn)?,Scaling Law(縮放定律)的故事還沒有講完。
長(zhǎng)思考的模型對(duì)于 Token 的需求有數(shù)倍提升|圖片來源:英偉達(dá)
老黃表示,除了預(yù)訓(xùn)練和后訓(xùn)練(微調(diào)),測(cè)試時(shí)的 Scaling Law 才剛剛開始。(指模型推理階段,動(dòng)態(tài)分配計(jì)算資源以提升性能。例如,根據(jù)問題復(fù)雜度自動(dòng)延長(zhǎng)「思考時(shí)間」,或通過多次推理生成多個(gè)候選答案并擇優(yōu)輸出)
在英偉達(dá) GTC 的一篇官方博文中,Tokens(詞元)被視為 AI 的語言與貨幣。它是 AI 在訓(xùn)練和推理過程中處理的數(shù)據(jù)單位,用在預(yù)測(cè)、生成和推理的每一個(gè)場(chǎng)景。
在老黃看來,加速 AI 工作負(fù)載的新型數(shù)據(jù)中心「AI 工廠」,就是要高效地處理這些 tokens,將其從 AI 語言轉(zhuǎn)換為 AI 貨幣——即智能。通過軟硬一體優(yōu)化,以更低的計(jì)算成本處理更多 tokens。
如此一來,當(dāng)更復(fù)雜、智能的推理模型,需要更快、更多地吞吐 tokens 時(shí),如何能夠有一套軟硬兼施的計(jì)算系統(tǒng)讓它更加高效,就成為 AI 應(yīng)用能不能賺錢的關(guān)鍵。
這就是 Agentic AI下,新黃氏定律曲線。
在性能、Token 和收入的多維度曲線下,廠商依然有盈利的機(jī)會(huì)|圖片來源:英偉達(dá)
而要想達(dá)到「Revenue」那個(gè)切面、讓 AI 應(yīng)用實(shí)現(xiàn)商業(yè)化閉環(huán),還得買英偉達(dá),依舊是「買得多省得多」——不,現(xiàn)在是「買得多,賺得多」。
「AI 工廠」的操作系統(tǒng)——Dynamo
不久前,最了解英偉達(dá)的「DeepSeek 靠軟硬一體優(yōu)化實(shí)現(xiàn)了 550% 的理論利潤(rùn)率」新聞刷屏。別忘了,了解英偉達(dá)的,也包括他自己。DeepSeek 在 Infra 上的彈藥,老黃也給你配齊了!
英偉達(dá)此次推出了一個(gè)新的「AI 工廠」引擎的操作系統(tǒng),Dynamo。有了它,tokens 的吞吐和延遲還能大幅優(yōu)化!
黃仁勛講解 Dynamo 如何實(shí)現(xiàn) pd 分離 | 圖片來源:英偉達(dá)
為了讓一個(gè)更大的模型,更高效地產(chǎn)出更多 tokens,本身已經(jīng)成為了一個(gè)工程學(xué)問題。如何合理利用流水線并行、張量并行、專家并行、在途批量化、pd 分離、工作負(fù)載管理,如何管理 KV cache,各家都拿出了不同的方案。
英偉達(dá)此次也推出了自己的方案,Dynamo。黃仁勛把這個(gè)推理服務(wù)庫比作新時(shí)代的 VMware,能夠自動(dòng)編排如何讓 AI 在推理時(shí)代跑的更好——每秒能產(chǎn)生更多 tokens。
接下來黃仁勛簡(jiǎn)直在直接對(duì)需要采購(gòu)英偉達(dá)的數(shù)據(jù)中心喊話了:未來的每一個(gè)數(shù)據(jù)中心都會(huì)受到功耗的限制。你的營(yíng)收也會(huì)受到功耗的限制,你能使用的電力就能推算出潛在營(yíng)收。
采用 Blackwell,你在同樣電力下,能收獲更好的性能;再加上Dynamo,Blackwell 將能進(jìn)一步優(yōu)化——Hopper 也能優(yōu)化,但是沒那么多。
按照英偉達(dá)的說法,使用 Dynamo 優(yōu)化推理,能讓 Blackwell 上的 DeepSeek-R1 的吞吐量提升 30 倍。Dynamo 也完全開源。
引入 FP4 和 Dynamo 后 Blackwell 與 Hopper 系列芯片性能的對(duì)比 |圖片來源:英偉達(dá)
黃仁勛直接幫企業(yè)算起了賬:在同等功耗下,Blackwell 的性能比 Hopper 高出 4—5 倍的幅度。在「推理模型」的測(cè)試?yán)?,Blackwell 的性能大約是 Hopper 的 40 倍。
同樣的 100 兆瓦數(shù)據(jù)中心,使用 H100 需要 1400 個(gè)機(jī)架,每秒可以生產(chǎn) 3 億個(gè) token,使用 GB200,只需要 600 個(gè)機(jī)架,每秒可以產(chǎn)生 120 億個(gè) token。
老黃:你買的越多,省的越多!
100 兆瓦數(shù)據(jù)中心算賬題|圖片來源:英偉達(dá)
不只有 Blackwell「超大杯」,還有光芯片落地
在硬件領(lǐng)域,老黃還宣布了其 Blackwell AI 工廠平臺(tái)的下一個(gè)演進(jìn)版本————Blackwell Ultra,旨在進(jìn)一步提升 AI 推理能力。
與現(xiàn)存的 Blackwell 不同,據(jù)老黃介紹,Blackwell Ultra 專為 AI 推理而設(shè)計(jì)的:在 DeepSeek R1 發(fā)布之后,目前 OpenAI o1 與 Google Gemini 2.0 Flash Thinking 都是已經(jīng)上市的推理模型產(chǎn)品。
Blackwell Ultra 具體包含 GB300 NVL72 和 HGX B300 NVL16 系統(tǒng),其 AI 性能比其前代產(chǎn)品高出 1.5 倍。GB300 NVL72 在一個(gè)機(jī)架規(guī)模設(shè)計(jì)中連接了 72 個(gè) Blackwell Ultra GPU 和 36 個(gè)基于 Arm Neoverse 的 NVIDIA Grace CPU。與 Hopper 一代相比,HGX B300 NVL16 在大型語言模型上提供了快 11 倍的推理速度,多 7 倍的計(jì)算能力和 4 倍的內(nèi)存。同樣支持一道發(fā)布的 NVIDIA Dynamo 推理框架。
Blackwell Ultra 作為「超大杯」登場(chǎng) | 圖片來源:英偉達(dá)
包括 AWS、谷歌云和微軟 Azure 在內(nèi)的主要科技公司和云服務(wù)提供商,將從 2025 年下半年開始提供由 Blackwell Ultra 驅(qū)動(dòng)的實(shí)例。
除了 Blackwell Ultra,英偉達(dá)還公布了其 2026 年和 2027 年數(shù)據(jù)中心路線圖的更新,其中就包括即將推出的下一代 AI 芯片 Rubin(以天文學(xué)家 Vera Rubin 命名)與 Rubin Ultra 的計(jì)劃配置。
下一代 AI 芯片代號(hào)為 Rubin | 圖片來源:英偉達(dá)
Rubin NVL144 機(jī)架,將與現(xiàn)有的 Blackwell NVL72 基礎(chǔ)設(shè)施直接兼容。而 Rubin Ultra 的整個(gè)機(jī)架將被新的布局 NVL576 取代。一個(gè)機(jī)架最多可容納 576 個(gè) GPU。
除了這些相對(duì)枯燥的芯片迭代,英偉達(dá)還第一次公開了其光芯片在 AI 計(jì)算領(lǐng)域的進(jìn)展,老黃將其稱之為:
「下一代人工智能的基礎(chǔ)設(shè)施」
硅光芯片具有高運(yùn)算速度、低功耗、低時(shí)延等特點(diǎn),且不必追求工藝尺寸的極限縮小,在制造工藝上,也不必像電子芯片那樣嚴(yán)苛,必須使用極紫外光刻機(jī),也就是因?yàn)椤感酒瑧?zhàn)爭(zhēng)」,被大眾所熟知的 EUV。
目前,英偉達(dá)并未直接將光芯片技術(shù)用戶 AI 芯片上,而是與臺(tái)積電(TSMC)合作,采用臺(tái)積電的硅光子平臺(tái) Compact Universal Photonic Engine (COUPE),該平臺(tái)使用臺(tái)積電的 SoIC-X 封裝技術(shù),同時(shí)結(jié)合了電子集成電路(EIC)與光子集成電路(PIC)。打造出兩款名為 Spectrum-X 和 Quantum-X 采用硅光子技術(shù)的交換機(jī)。
隨著「人工智能工廠」在世界各地興建,能耗與運(yùn)營(yíng)成本,已經(jīng)成為困擾巨型數(shù)據(jù)中心繼續(xù)拓展的關(guān)鍵問題;因此英偉達(dá)也在用硅光子技術(shù),來嘗試進(jìn)一步優(yōu)化現(xiàn)有的巨型數(shù)據(jù)中心。
這些也正是硅光子技術(shù)大顯身手的場(chǎng)景,硅光子芯片有潛力徹底改變數(shù)據(jù)處理速度,同時(shí)加快推動(dòng)量子計(jì)算技術(shù)的發(fā)展。同時(shí)新光子技術(shù)還將為數(shù)據(jù)中心的 GPU 集群節(jié)省數(shù)兆瓦的能源。
「人工智能工廠是一種具有極端規(guī)模的新型數(shù)據(jù)中心,網(wǎng)絡(luò)基礎(chǔ)設(shè)施必須進(jìn)行改造以跟上步伐?!裹S仁勛這樣介紹硅光子芯片在數(shù)據(jù)中心的應(yīng)用前景。
Quantum-X InfiniBand 交換機(jī)采用特殊的線纜來加速運(yùn)行 | 圖片來源:英偉達(dá)
據(jù)英偉達(dá)公開的信息,Spectrum-X 提供 100Tb/s 的總帶寬,總吞吐量為 400Tb/s,并且提供每端口最高 1.6Tb/s 的速度——是目前頂級(jí)銅纜傳輸最快速度的兩倍),連老黃自己都吐槽「這段介紹里實(shí)在是太多 TB 了」。
Quantum-X 光子 InfiniBand 交換機(jī)將于 2025 年晚些時(shí)候上市,而 Spectrum-X 光子以太網(wǎng)交換機(jī)計(jì)劃于 2026 年發(fā)布。
最后,老黃還宣布了在 Rubin 之后的下一代 AI 芯片的架構(gòu)命名 Feynman;這個(gè)名稱源自對(duì)量子計(jì)算領(lǐng)域有著重要貢獻(xiàn)的科學(xué)家 Richard Phillips Feynman,他同時(shí)也是現(xiàn)代量子計(jì)算機(jī)概念的奠基人,于 20 世紀(jì) 80 年代提出了量子計(jì)算機(jī)的概念。
直到 2028 年的英偉達(dá) AI 芯片硬件路線圖 | 圖片來源:英偉達(dá)
根據(jù)老黃公布的路線圖,F(xiàn)eynman 架構(gòu)將于 2028 年登場(chǎng)——或許到那個(gè)時(shí)候,我們真的能看到量子計(jì)算技術(shù)出現(xiàn)重大突破了。
英偉達(dá)機(jī)器人生態(tài)完整成型
去年老黃在 GTC 上,伸出手臂,和一排人形機(jī)器人站在一起,已經(jīng)成為經(jīng)典一幕,
而今年,仿真數(shù)據(jù)和機(jī)器人,仍然出現(xiàn)在 GTC 的各個(gè)角落中。甚至在演講的一開始,老黃的講稿中,直接就把物理 AI 放在了 AI 發(fā)展的最高點(diǎn)上。
AI 發(fā)展的階段:后三個(gè)階段分別為生成式 AI、Agentic AI、物理 AI | 圖片來源:英偉達(dá)
不過,在整個(gè) GTC 中,單就時(shí)長(zhǎng)而言,涉及到物理 AI 的比重,并沒有想象中的高。自動(dòng)駕駛部分和機(jī)器人部分的介紹加在一起,可能不足半個(gè)小時(shí)。
雖然時(shí)長(zhǎng)不長(zhǎng),英偉達(dá)此次的發(fā)布,卻仍然讓人看到了英偉達(dá)的野心。
對(duì)于所有 AI 而言,數(shù)據(jù)、算法和算力,都是最重要的要素。
我們熟悉的生成式 AI,是在海量的互聯(lián)網(wǎng)文字和視頻數(shù)據(jù)中訓(xùn)練出來的,英偉達(dá)的貢獻(xiàn),更多的在算力方面。
而走到物理 AI,英偉達(dá)卻是想在數(shù)據(jù)、算法、算力上全方面發(fā)力,一個(gè)產(chǎn)業(yè)地圖已經(jīng)呼之欲出。
在算力上,英偉達(dá)有之前發(fā)布的 Orin 和 Thor 芯片。
在數(shù)據(jù)上,英偉達(dá)也是重要的貢獻(xiàn)者。物理 AI 強(qiáng)調(diào)讓 AI 能夠理解物理世界,而世界在過去并沒有像積累文字和視頻數(shù)據(jù)一樣,積累足夠多的 3D 環(huán)境數(shù)據(jù)。要大量產(chǎn)生數(shù)據(jù),還得看英偉達(dá)推動(dòng)的仿真數(shù)據(jù)的進(jìn)展。
而通過幾屆 GTC 下來,英偉達(dá)已經(jīng)全面補(bǔ)齊了數(shù)據(jù)的生產(chǎn)流程:
Omniverse 數(shù)字孿生環(huán)境,相當(dāng)于一個(gè)超強(qiáng)的 3D 編輯器,能夠生成逼真的場(chǎng)景和物品。開發(fā)者可以根據(jù)不同的領(lǐng)域、機(jī)器人類型和任務(wù),整合真實(shí)世界的傳感器數(shù)據(jù)或示范數(shù)據(jù)。
Cosmos 模型訓(xùn)練平臺(tái),相當(dāng)于一個(gè)專門為汽車和機(jī)器人搭建的虛擬世界,利用 Omniverse 訓(xùn)練 Cosmos,能夠讓 Cosmos 生成無限多樣的虛擬環(huán)境,創(chuàng)建既受控、又具備系統(tǒng)性無限擴(kuò)展能力的數(shù)據(jù)。
兩者結(jié)合,就能產(chǎn)出無限多各種各樣環(huán)境、光線、布景的虛擬仿真數(shù)據(jù)。正如下圖所示,Omniverse 中的機(jī)器人呈糖果色,主打與現(xiàn)實(shí)呈現(xiàn)數(shù)字孿生,而 Cosmos 中的布景則可以完全變換,生成不同的布景。
Omniverse 和 Cosmos 的機(jī)器人數(shù)據(jù)效果 | 圖片來源:英偉達(dá)
而針對(duì)人形機(jī)器人,英偉達(dá)還特別推出了一系列其他的工具,比如今年主推的藍(lán)圖(blueprint)工具中的 Mega,就可以測(cè)試大規(guī)模的機(jī)器人部署的效果。
英偉達(dá)希望人形機(jī)器人的開發(fā)者能夠先采集一部分現(xiàn)實(shí)世界的數(shù)據(jù),導(dǎo)入 Omniverse 里面,然后利用 Cosmos,將這部分現(xiàn)實(shí)世界的數(shù)據(jù)轉(zhuǎn)換成多樣化的虛擬數(shù)據(jù),直接導(dǎo)入英偉達(dá)的 Issac Lab 中進(jìn)行后期訓(xùn)練——或者模仿學(xué)習(xí)復(fù)制行為,或者強(qiáng)化學(xué)習(xí)在試錯(cuò)中學(xué)習(xí)新技能。
在落地更快的自動(dòng)駕駛領(lǐng)域,這種 Ominiverse 和 Cosmos 相互依仗的數(shù)據(jù)能力已經(jīng)初見成效。此次的 GTC,英偉達(dá)宣布通用汽車(GM)已選擇與英偉達(dá)合作,共同打造未來的自動(dòng)駕駛車隊(duì)。除了對(duì)利用仿真環(huán)境對(duì)工廠和汽車的設(shè)計(jì)進(jìn)行改進(jìn)之外,英偉達(dá)還將幫助通用汽車改進(jìn)智駕體驗(yàn)。
其中,通用汽車重點(diǎn)看中的,應(yīng)該就是 Cosmos 的整套端到端的 AI 訓(xùn)練體系。3D 合成數(shù)據(jù)生成(3D Synthetic Data Generation)能夠通過 Omniverse,將日志數(shù)據(jù)轉(zhuǎn)化為高精度 4D 駕駛環(huán)境,結(jié)合地圖和圖像生成真實(shí)世界的數(shù)字孿生,包括像素級(jí)的語義分割。Cosmos 再通過這些數(shù)據(jù)擴(kuò)展訓(xùn)練集,生成更多準(zhǔn)確且多樣化的駕駛場(chǎng)景,縮小仿真與現(xiàn)實(shí)(sim-to-real)的差距。
同時(shí) Cosmos 為模型訓(xùn)練也做了專門的優(yōu)化,可以進(jìn)行模型蒸餾和閉環(huán)訓(xùn)練。
而落地更慢的人形機(jī)器人領(lǐng)域,在去年到今年的 GTC 之間,我們甚至看到英偉達(dá)在算法上,也在發(fā)力。
在去年發(fā)布了 GR00T 模型之后,今年英偉達(dá)發(fā)布了 GR00T N1 模型。英偉達(dá)宣布這是全球首個(gè)開放的、完全可定制的通用人形機(jī)器人推理與技能基礎(chǔ)模型。
Groot N1 基于合成數(shù)據(jù)生成與仿真學(xué)習(xí)的技術(shù)基礎(chǔ),采用了「快思考與慢思考」的雙系統(tǒng)架構(gòu)。其中,「慢思考」系統(tǒng)讓機(jī)器人能夠感知環(huán)境、理解指令,并規(guī)劃正確的行動(dòng),而「快思考」系統(tǒng)則將規(guī)劃轉(zhuǎn)換為精準(zhǔn)、連續(xù)的機(jī)器人動(dòng)作。
Groot N1 架構(gòu) | 圖片來源:英偉達(dá)
Groot N1 本身并不是一個(gè)重大的技術(shù)突破——之前 FigureAI 的 Helix 等模型,都是采取了類似的雙系統(tǒng)架構(gòu)。
英偉達(dá)很明顯,希望的是通過將一套先進(jìn)的模型開源,再加上完整的合成數(shù)據(jù)生成與機(jī)器人學(xué)習(xí)管道,人形機(jī)器人開發(fā)者可以在全球各個(gè)行業(yè)的不同環(huán)境和任務(wù)場(chǎng)景中對(duì) Groot N1 進(jìn)行后期訓(xùn)練——正如 DeepSeek 對(duì)人工智能產(chǎn)業(yè)的帶動(dòng)一樣。
英偉達(dá)在機(jī)器人領(lǐng)域的進(jìn)展似乎一直沒有停歇,一直在不斷補(bǔ)齊產(chǎn)業(yè)鏈上的每一個(gè)空缺,速度驚人。似乎要讓機(jī)器人開發(fā),變得像目前的 AI 應(yīng)用開發(fā)一樣容易,才能停歇。
專門針對(duì)機(jī)器人的研發(fā),今年英偉達(dá)還與 DeepMind、迪士尼研究院(Disney Research)共同合作,聯(lián)合推出了一款新的物理引擎 Newton。
黃仁勛與迪士尼機(jī)器人互動(dòng) | 圖片來源:英偉達(dá)
當(dāng)前的大多數(shù)物理引擎都是針對(duì)特定需求設(shè)計(jì)的,例如大型機(jī)械模擬、虛擬世界或電子游戲等,而機(jī)器人需要的,是能夠精確模擬剛體、軟體材料,支持觸覺反饋、時(shí)間序列技能學(xué)習(xí)、執(zhí)行器控制,基于 GPU 加速,從而在超實(shí)時(shí)的虛擬世界中,以驚人的速度訓(xùn)練 AI 模型的物理引擎。
在演講的結(jié)束,一款小小的 Blue 機(jī)器人登臺(tái)亮相了。Blue 機(jī)器人內(nèi)置了兩個(gè)英偉達(dá)芯片,而它的訓(xùn)練,則是完全是在英偉達(dá)的建設(shè)的訓(xùn)練體系和 Newton 引擎中,通過實(shí)時(shí)模擬完成的。
英偉達(dá)對(duì)于機(jī)器人的投入看來不會(huì)停止,機(jī)器人演示不斷出現(xiàn)小故障,搶走老黃的風(fēng)頭,似乎也將成為接下來幾年英偉達(dá) GTC 經(jīng)常性的看點(diǎn)了。
演講結(jié)束前的經(jīng)典畫面|圖片來源:光輪智能創(chuàng)始人&CEO 謝晨
在 GTC 主演講結(jié)束之前,老黃在視頻播放的間隙,擺了一個(gè) Pose。你可以說是隨性,但從某種意義上來看,這個(gè)經(jīng)典畫面——明顯是名畫「創(chuàng)造亞當(dāng)」的一個(gè)鏡像——可能會(huì)在以后 AI 科技的歷史中不斷出現(xiàn)。