Ha volt valami, amiben biztosak lehettünk az idei Las Vegas-i CES techkiállításon, az az volt, hogy az Nvidia rengeteget fog beszélni a mesterséges intelligenciáról (MI), és nagyon keveset bármi másról. Ez végül csak részben jött be, mert a vártnál több videokártyát mutattak, köztük egy elég nagy meglepetéssel, de még itt is elég nagy hangsúlyt kapott az mesterséges intelligenciával működő képkocka-generáló algoritmus, a DLSS, ezen kívül pedig tényleg minden az MI körül forgott a cég hétfői konferenciáján. Azt nehezen lehetne állítani, hogy ebből minden érdekes is volt, de az MI-fejlesztőknek szánt mini szuperszámítógép, a Project Digits biztosan ezek közé tartozott.
Ha szuperszámítógépekről van szó, az ember még mindig hatalmas eszközökre gondol, méghozzá jó okkal, hiszen azok is. Az Nvidia viszont a MediaTekkel közösen létrehozott egy rendszercsipet GB10 néven, amely az alapvetően adatközpontokból ismerhető Grace Blackwell architektúrán alapul, és akár 200 milliárd paraméteres MI-modelleket is képes kezelni, de közben belefér egy minipécébe, amelyet csak egy sima konnektorba kell bedugni. Hogy ez miért jó? Jensen Huang, az Nvidia vezérigazgatója szerint azért, mert
az MI minden iparágban megkerülhetetlen lesz, és azzal, hogy minden adattudós, MI-kutató és diák asztalára odatesznek egy szuperszámítógépet, lehetővé teszik a vele való interakciót, sőt, a formálását is.
A GB10-es szupercsip mellett 128 gigabájt memória és akár 4 terabájtnyi NVMe tárhely van még a Digitsben, amely akár egy petaflops teljesítményre is képes, azaz másodpercenként egybilliárd MI-műveletet hajt végre. A mini szuperszámítógép 3000 dollárba, vagyis átszámítva 1,2 millió forintba kerül, de ha még nagyobb teljesítményre vágyunk, vehetünk kettőt, és összeköthetjük őket, ezzel megduplázva a lehetőségeinket. Így 405 milliárd paraméteres modelleket is lehet rajta futtatni – ez pont annyi, amennyivel a Meta Llamaja nevű modelljének legfrissebb változata gazdálkodik.
A csip kvázi nagy tesóját, a két B200-as GPU-ból és egy Grace CPU-ból álló GB200-at még tavaly márciusban mutatta be az Nvidia, hétfőn este Las Vegasban pedig a pajzsnak kinéző, ipari adatközpontokban használt GB200 NVL72-t mutogatta is Huang. Közben úgy tett, mintha ő lenne Amerika Kapitány, de a kinyújtott kezébe nagy bánatára nem repült bele Thor kalapácsa. Ezen a pajzson amúgy 36 ilyen szupercsip van összekötve, ami 1,4 exaflops teljesítményt jelent, az adatátviteli sebessége pedig olyan gyors, mint a teljes internet adatforgalma.
Ha már felmerült a Llama, azt is érdemes megemlíteni, hogy az Nvidia bejelentett egy saját, ezen alapuló modellt Llama Nemotron néven, melynek célja az, hogy felturbózzák a hétfőn ugyancsak sokat emlegetett MI-ügynököket. Ezek lényegében MI-asszisztensek, amelyeket rengeteg különféle helyen lehet bevetni, egy raktárban például a koordinációban tudnak sokat segíteni, és a polcok rendezettségét is tudják kommentálni a kameraképek alapján. Huang azt is elmondta, hogy a terv az, hogy a jövőben mindenkinek személyre szabott MI-asszisztense legyen.
És ezzel még mindig nem volt vége, mert a virtuálisak után jöttek a valódi robotok, amelyekhez Huang szerint a ChatGPT alapján is adó GPT-modell való életre ráhúzható megfelelőjére van szükség, hogy a robotok értsék a gravitációt, a tehetetlenség törvényét és a tárgyállandóságot, többek közt. Az Nvidia pedig meg is csinálta ezt, és úgy nevezik, hogy Cosmos. A cég az Omniverse nevű platformja segítségével digitális ikervilágokat hoz létre a robotoknak, ahol aztán mindenféle szcenáriókat lehet szimulálni, az MI-fejlesztőket pedig kamerafelvételekkel segíti. A platform nyílt licencű, GitHubon elérhető.
A teljes előadást itt lehet visszanézni:
Idén is a helyszínről tudósítunk a techvilág újdonságairól, a Las Vegas-i CES-en bemutatott legújabb és legérdekesebb kütyükről. További cikkeink itt olvashatók.