- Czym jest DGX Spark? Mini komputer AI (150×150×50,5 mm; 1,2 kg) oparty na układzie GB10 Grace Blackwell, z 128 GB zunifikowanej pamięci CPU‑GPU, do 4 TB NVMe, zasilany zasilaczem 240 W. NVIDIA deklaruje do 1 PFLOP wydajności AI w precyzji FP4. I/O obejmuje 10 GbE RJ‑45 oraz dwa porty QSFP56 200 Gb/s (ConnectX‑7) do łączenia wielu jednostek.
- Cena i dostępność. Cena katalogowa $3,999; sprzedaż rozpoczęła się 15 października 2025 przez NVIDIA.com i partnerów.
- Dla kogo? NVIDIA kieruje produkt do naukowców, deweloperów i studentów — „osobisty superkomputer AI” na biurko, a nie komputer do gier.
- Geneza. Produkt wyewoluował z Project DIGITS pokazanego na CES 2025; nazwa zmieniła się na DGX Spark przy premierze.
- Modele i skalowanie. Pojedyncza jednostka może lokalnie obsłużyć modele do 200 mld parametrów (przez FP4/NVFP4); dwie połączone przez 200 GbE poradzą sobie z ~405 mld parametrów.
- Oprogramowanie. Dostarczany z DGX OS i pełnym stosem NVIDIA AI (CUDA, NIM, NGC, „Playbooks” oraz aplikacją Sync do zdalnego rozwoju).
- Partnerzy OEM. Acer, ASUS, Dell, Gigabyte, HP, Lenovo i MSI przygotowują warianty oparte na GB10.
- Kontrowersje. W wczesnych porównaniach FP8/FP16 Spark nie zawsze wygrywa z tańszymi mini‑PC opartymi na AMD Strix Halo — jego przewaga to FP4/NVFP4, 128 GB zunifikowanej pamięci i gotowy do użycia stack oprogramowania.
Wprowadzenie: „PetaFLOP w Twojej dłoni” — co naprawdę proponuje NVIDIA
DGX Spark firmy NVIDIA pojawia się jako „najmniejszy superkomputer AI” — urządzenie wielkości śniadaniówki na biurko, działające z gniazdka sieciowego. Jensen Huang uroczyście przekazał pierwsze egzemplarze Elonowi Muskowi w SpaceX i Samowi Altmanowi w OpenAI, żartując o „najmniejszym superkomputerze obok największej rakiety”.
Za marketingiem stoi prawdziwa technologia: GB10 Grace Blackwell łączy 20-rdzeniowy procesor Arm (10× Cortex‑X925 + 10× Cortex‑A725) z nowej generacji GPU Blackwell z 5. generacją Tensor Cores i sprzętowym wsparciem dla FP4/NVFP4. To właśnie umożliwia deklarowane „do 1 PFLOP” — w FP4, gdzie 4-bitowa kwantyzacja wag/aktywacji drastycznie zwiększa przepustowość.
Sprzęt: od obudowy po sieć 200 Gb/s
W sercu Spark znajduje się GB10, sparowany z 128 GB zunifikowanej pamięci LPDDR5x widocznej zarówno dla CPU, jak i GPU — co pomaga przy bardzo dużych modelach, eliminując powolne przerzucanie danych między RAM a VRAM. Obudowa o wymiarach 150×150×50,5 mm mieści także do 4 TB samoszyfrującego się NVMe oraz zestaw portów I/O, w tym cztery porty USB‑C, HDMI 2.1a, 10 GbE RJ‑45, Wi‑Fi 7/Bluetooth 5.4 oraz — co kluczowe — dwa porty QSFP56 obsługiwane przez ConnectX‑7 200 Gb/s do klastrowania i RDMA. Pobór mocy sięga maksymalnie 240 W.Podczas gdy typowy mini‑PC kończy się na 2,5 GbE w kwestii sieci, łącze 200 Gb Spark pozwala połączyć dwa (lub więcej) urządzenia w jedną logiczną maszynę — stąd scenariusz dwóch węzłów dla modeli ~405 B‑parametrowych.
Skąd się bierze „Petaflop”: Krótki przewodnik po FP4/NVFP4
Nagłówek „do 1 PFLOP” odnosi się do wydajności FP4 — 4‑bitowego formatu zmiennoprzecinkowego zaimplementowanego sprzętowo w Blackwell (z NVFP4 dodającym blokowe mikro‑skalowanie i automatyzację w Tensor Cores). Efektem są znacznie mniejsze rozmiary pamięci i wyższa przepustowość niż w FP8/FP16 przy zachowaniu jakości dla wielu zadań inferencyjnych.
Wskazania NVIDII pokazują, że NVFP4 może zmniejszyć rozmiar modelu ~3,5× względem FP16 i ~1,8× względem FP8 przy minimalnej utracie dokładności — co sprawia, że lokalne modele 200B są możliwe bez HBM czy serwerowni.
Oprogramowanie i doświadczenie deweloperskie
Tak samo ważne jak sprzęt jest środowisko: DGX OS, wyselekcjonowane kontenery NGC, NVIDIA NIM (mikrousługi do inferencji), AI Blueprints/Playbooks (przepisy krok po kroku) oraz aplikacja Sync, która udostępnia Spark w Twoim IDE (VS Code, Cursor) jako zdalną stację roboczą. Wczesne recenzje podkreślają płynny onboarding i sensowną selekcję materiałów startowych.
Deweloper i autor open source Simon Willison nazywa Spark „błyskotliwym małym komputerem”, zauważając jednocześnie, że ekosystem ARM64 + CUDA wciąż dojrzewa — „świetny sprzęt, wczesny etap ekosystemu”, choć dokumentacja i kontenery szybko się poprawiają.
Co mówią eksperci (cytaty)
- Jensen Huang (NVIDIA): „Umieszczenie superkomputera AI na biurku każdego data scientist…” — wizja osobistego superkomputera dla głównych twórców AI.
- Kyunghyun Cho (NYU): „DGX Spark pozwala nam uzyskać dostęp do obliczeń w skali peta na naszym biurku…”, przyspieszając prototypowanie i prywatne eksperymenty badawcze.
- Jensen Huang (o przekazaniu SpaceX): „…najmniejszy superkomputer obok największej rakiety.”
- HotHardware: „128 GB szybkiej pamięci to więcej niż jakikolwiek konsumencki GPU.”
- ServeTheHome (Patrick Kennedy): „To jest takie fajne”, wskazując, że 200 GbE QSFP56 jest kluczowe dla wartości Spark.
- Level1Techs (forum): „To nie jest produkt, który się benchmarkuje — to produkt, z którym się buduje.”
- PC Gamer (o przewadze Blackwell): „Blackwell ma sprzętowe wsparcie dla FP4.”
- Inc.com (o pozycjonowaniu): „Nie będzie służyć do grania w gry wideo.”
Wydajność i wartość: co oznaczają liczby?
Tu robi się ciekawie — i kontrowersyjnie. PC Gamer porównał $3,999 Spark z AMD Strix Halo mini‑PC za około $2,348. W testach FP8/FP16 wyniki były czasem podobne, co rodzi pytania o ROI, jeśli patrzeć tylko na suche liczby. Z drugiej strony komentatorzy podkreślają, że siłą Spark jest moc w FP4/NVFP4, 128 GB zunifikowanej pamięci oraz zintegrowany stos oprogramowania — a nie bicie rekordów benchmarków w wyższych precyzjach.
HotHardware sugeruje traktować Spark jako „towarzysza dewelopera” — zdalnie sterowany sidecar do głównej stacji roboczej — a nie zamiennik dGPU klasy data center. Zwracają też uwagę na wygodę NVIDIA Sync i jakość Playbooks.
W skrócie: jeśli twoje workflow wykorzystuje FP4/NVFP4, potrzebuje dużej zunifikowanej pamięci (128 GB) i wolisz lokalny rozwój zamiast zależności od chmury, Spark błyszczy. Jeśli optymalizujesz wyłącznie pod kątem $→tok/s w FP16/FP8, konsumencki dGPU lub Strix Halo mini‑PC może być tańszy — ale z mniejszą pamięcią i mniej zintegrowanymi narzędziami.
Przypadki użycia, które mają sens już teraz
- Lokalne LLM-y i prototypy agentów (RAG, multimodalne, kodowanie), z naciskiem na prywatność i brak zależności od chmury.
- Komputerowe widzenie na biurku (ComfyUI/Roboflow, segmentacja, wyszukiwanie wizualne).
- Robotyka i „fizyczna AI” — szybkie pętle eksperymentów bez kolejek do klastra.
- Edukacja — środowisko „z pudełka do działającego agenta”, które pomaga nauczyć się FP4, kwantyzacji i orkiestracji kontenerów.
Pamiętaj, że „superkomputer” tutaj to skrót myślowy marketingu AI — to nie jest maszyna klasy TOP500. Dla porównania, amerykański superkomputer El Capitan osiąga 2,79 exaFLOPS (FP64/AI) i nie jest produktem konsumenckim. Spark zasługuje na miano „superkomputera biurkowego” dzięki architekturze i oprogramowaniu, a nie przez sam pobór mocy czy chłodzenie cieczą.
Dostępność i ekosystem
Sprzedaż rozpoczęła się 15 października 2025. Poza własną (często „niedostępną”) konfiguracją NVIDIA, wersje partnerskie (Acer, ASUS, Dell, Gigabyte, HP, Lenovo, MSI) są w przygotowaniu. Koncepcja pozostaje spójna — GB10 + 128 GB + 200 GbE — z możliwymi różnicami w firmware, serwisie i szczegółach konfiguracji.
Werdykt: Kto powinien kupić DGX Spark?
- Tak — jeśli jesteś badaczem/deweloperem, który ceni pracę lokalną z dużymi modelami (FP4/NVFP4), 128 GB zunifikowanej pamięci oraz gotowy stos AI NVIDIA.
- Rozważ ostrożnie — jeśli zależy Ci na najlepszym $‑za‑token/s w FP8/FP16: mini‑PC Strix Halo lub stacja robocza z konsumenckim GPU może być bardziej ekonomiczna, kosztem pojemności pamięci i integracji.
- Nie — jeśli chcesz komputer do gier. Jak trafnie zauważa Inc.: „Nie uruchomi gier komputerowych.”
Ostatecznie, DGX Spark to narzędzie do tworzenia: „nie produkt do benchmarków — to coś, z czym się buduje.” Jako „petaflopa w dłoni”, rzeczywiście może przyspieszyć demokratyzację AI poza serwerownią.
Źródła, specyfikacje i dalsza lektura (wybór)
- Strona produktu i specyfikacja: NVIDIA DGX Spark (wymiary, waga, pamięć; wcześniej Project DIGITS).
- Karta w marketplace (cena, „Superkomputer AI Grace Blackwell na Twoim biurku”).
- Pełna specyfikacja/wsparcie (20‑rdzeniowy CPU Arm, ConnectX‑7 200 Gb/s, 240 W).
- Ogłoszenie na CES (Project DIGITS, 200B, 405B, misja produktu).
- Blog NVIDIA (pierwsze dostawy, „superkomputer w dłoni”, lista partnerów).
- The Verge — data sprzedaży, cena, „osobisty superkomputer AI”.
- Tom’s Hardware — relacja z dostaw do Musk/Altman, kontekst rynkowy.
- PC Gamer — porównanie z AMD Strix Halo, wnioski dotyczące wartości FP8/FP16.
- HotHardware — „towarzysz dewelopera”, Playbooks/Sync, zalety 128 GB zunifikowanej pamięci.
- ServeTheHome — przegląd portów (w tym QSFP56 200 GbE), wrażenia z użytkowania.
- Simon Willison — recenzja deweloperska (dojrzewanie ekosystemu ARM64+CUDA).
- FP4/NVFP4: krótki opis architektury Blackwell (5. generacja Tensor Cores) oraz techniczny blog NVFP4.