På Computex 2025-mässan i Taipei, Taiwan, har Nvidia avslöjat en arsenal av nya verktyg i jakten på att ge humanoida robotar en ”hjärna” och förmågan att navigera och agera i den verkliga, oförutsägbara världen.
I centrum står uppdateringar av deras Isaac-plattform, som ska accelerera utvecklingen av robotars intelligens från ”molnet till roboten”. Som Nvidias grundare och vd Jensen Huang påpekar står vi potentiellt inför nästa industriella revolution driven av ”fysisk AI och robotik”, och Nvidia vill vara det företag som levererar de nödvändiga byggstenarna för den utvecklingen. Precis som de redan är när det gäller datorkraft för artificiell intelligens i datacenter och datorer.
En viktig komponent i denna strategi är Nvidia Isaac GR00T N1.5, som är den senaste versionen av Nvidias öppna, generella grundmodell för hur humanoida robotar kan resonera och agera.
Modellen är inte bara en receptsamling bestående av villkor. GR00T N1.5 är specifikt tränad för att göra roboten kapabel att anpassa sig till nya miljöer och arbetsområden. Ett betydande framsteg är modellens förmåga att känna igen objekt utifrån mänskliga instruktioner. Det innebär att robotarna blir bättre på vanliga uppgifter som att sortera eller placera föremål.
GR00T N1.5 förväntas släppas som öppen källkod innan den 9 juni. Ett antal företag, däribland AeiRobot, Foxlink, Lightwheel och NEURA Robotics, använder redan tidigare GR00T-modeller.
Roboten drömmer om rörelse
Men hur lär sig en robot att navigera i en värld den inte tidigare har mött? Traditionellt krävs det enorma mängder data insamlad från den verkliga världen, vilket är både dyrt och tidskrävande. Nvidia har hittat en genväg, nämligen att låta roboten drömma om att röra sig. Isaac GR00T-Dreams är fortfarande på försöksstadiet – en dröm, om man så vill. Men målet är att generera stora mängder syntetiska rörelsedata – ”drömvideor” – av roboten i aktion.
Först finjusteras avancerade videogenereringsmodeller som Nvidias Cosmos på befintliga videor av den specifika roboten. Därefter kan programvaran utifrån en enda bild generera videor av roboten som utför nya uppgifter i helt nya miljöer. Dessa ”drömvideor” används sedan för att härleda action tokens, som fungerar som handlingsinstruktioner för roboten.
Jim Fan, AI-chef på Nvidia, förklarar att denna metod gör det möjligt att generera ett oändligt antal drömvideor, vilket övervinner den fysiska begränsningen vid datainsamling på riktiga robotar.
Det verkar finnas realiteter i drömmarna. Robotar som tränats med syntetiska data kan lära sig att utföra nya handlingar, även om de inte uttryckligen tränats i just den handlingen, eftersom de lär sig att ”förstå” fysiken bakom.
Så om du just nu tänker att den dag ditt jobb tas över av en chatbot kan du alltid få jobb som pizzabagare eller Wolt-bud, ska du inte vara alltför säker på din sak. Robotarna drömmer om att lära sig båda delarna.”
Förutom GR00T-Dreams och GR00T N1.5 lanserades flera andra simulerings- och datagenereringsverktyg för att ytterligare minska behovet av dyr och långsam datainsamling och testning i verkligheten. Dessa simuleringsverktyg används redan av robotutvecklare som Agility Robotics, Boston Dynamics, Fourier, Mentee Robotics, NEURA Robotics och XPENG Robotics, samt Foxconn och Foxlink.
Isaac GR00T N1.5 är gratis och öppen källkod, men Nvidia behöver inte oroa sig för intäkterna. Den enorma datorkraft som krävs för träning, datagenerering och simulering kräver hårdvara – från Nvidia. Systemtillverkare över hela världen bygger nu Nvidia RTX PRO 6000-arbetsstationer och servrar. Och större uppgifter kan hanteras med Nvidia Blackwell-system som GB200 NVL72.
Källor: VentureBeat, Nvidia