De grens tussen de pc en het datacenter vervaagt snel, en daarmee ontstaat er een nieuwe categorie: desktop supercomputers voor AIDeze sprong democratiseert niet alleen de toegang tot grootschalige computing, maar verandert ook de manier waarop we prototypes maken, trainen en geavanceerde modellen afleiden zonder altijd afhankelijk te zijn van de wolk.
Tegelijkertijd ervaart de planeet een echte race naar het exascale, van nationale infrastructuren van honderden megawatts tot compacte computers die petaFLOPS kunnen bereiken in het kantoor van een onderzoeker. In dit artikel verzamelen we alle belangrijke gegevens uit de geraadpleegde bronnen op één plek: een wereldwijd overzicht, Europese en Aziatische spelers, historische lijsten, toonaangevende centra en natuurlijk de nieuwe desktopster, Nvidia DGX Spark.
Wat is een supercomputer en waarom is het belangrijk voor AI?
Un supercomputer Het is een systeem met rekenkracht die veel beter is dan die van een conventionele pc. De prestaties worden uitgedrukt in FLOPS (floating point operations per second), met eenheden zoals petaFLOPS (1015) en, in de huidige elite, de exaFLOPS (1018).
Ze werken als een set van duizenden knooppunten (elk met CPU, Toegewijde GPU's, geheugen en opslag) verbonden door hogesnelheidsnetwerken en switches, om als één machine te werken. Terwijl een krachtige desktopcomputer tientallen TFLOPS kan halen, kunnen deze systemen honderden PFLOPS of meer halen.
Toepassingen ervan bestrijken vrijwel alles: weersvoorspelling, astrofysica, biomedicijnen, medicijnontwerp, nucleaire simulaties, geofysica, duurzaamheid en AI-onderzoek. Dankzij grootschalige computing kunnen ze miljarden datapunten in seconden verwerken en problemen oplossen die met traditionele apparatuur jaren zouden duren.
- Aanbevolen toepassingen: wapens en nationale veiligheid, farmaceutische industrie, big data, bio-informatica, klimaat en luchtkwaliteit, technische simulatie, slimme steden, onderwijs en cloud computing.
Vanwege hun omvang en verbruik hebben ze geavanceerde koeling (vaak vloeistof), specifieke ruimtes met temperatuurregeling en brandbeveiliging. Er zijn zelfs centra die de opgewekte warmte hergebruiken, zoals in Zwitserse faciliteiten die universiteitsgebouwen verwarmen.
Europa versnelt: EuroHPC, InvestAI en grote systemen

Europa heeft 162 supercomputers geregistreerd in 2025 en plant nieuwe faciliteiten. De EU heeft ook een investering van € 200.000 miljard gepromoot in het kader van het InvestAI-initiatief om een wereldleider te worden op het gebied van kunstmatige intelligentie.
De coördinatie en financiering van high computing vallen onder de verantwoordelijkheid van de "Europese joint venture voor high-performance computing» (EuroHPC JU), dat een netwerk van 9 systemen verspreid over het continent sponsort en exploiteert. Deze omvatten LUMI (Finland), Leonardo (Italië) en MareNostrum 5 (Spanje), pijlers van de Europese digitale soevereiniteit.
Spanje draagt bij aan de Barcelona Supercomputing Center (BSC-CNS), die in 2004 de historische MareNostrum 1 bouwde en in december 2023 MareNostrum 5 presenteerde. Deze laatste, met 314 maximale PFLOPS, Intel Xeon-processoren en een verbruik van 4.158,90 kW, zal in 2025 de 11e positie in de TOP500 innemen en is gericht op AI, medisch onderzoek, medicijnontdekking en meteorologie.
Italië schittert met Leonardo (Cineca + EuroHPC), geïnstalleerd in 2022 in Bologna. Het combineert AMD- en Intel-technologie, verbruikt 7.493,74 kW en bereikt 315,74 PFLOPS en staat wereldwijd op de 9e plaats. Het is essentieel voor universiteiten en bedrijven om wereldwijd te concurreren op het gebied van biomedische technologie, energie, klimaat en vooral AI.
Finland is gastheer LUMI (CSC + EuroHPC), aangestuurd door AMD en HPE. Het opende in 2023 in Kajaani en zal naar verwachting 386 PFLOPS, verbruikt 7.106,82 kW en staat daarmee wereldwijd op de 8e plaats. Binnen EuroHPC is het een van de krachtigste bolwerken.
Tegelijkertijd exploiteert Zwitserland de supercomputer bij het CSCS ALPEN/ALPEN 5, die met een verbruik van 7.124,00 kW en 434,90 PFLOPS staat op de 7e plaats in de wereld. Het richt zich op meteorologie, AI, biomedische wetenschappen en energieen maakt deel uit van een programma met 13 projecten waarvan ALPES het meest emblematisch is.
Ook de energiesector zet door: ENI (Italië) lanceerde in 2024 de HPC-6 met AMD en HPE, wat dit behaalt 606,97 PFLOPS met een verbruik van 8.460,90 kW. Het is gekoppeld aan ENI's Green Data Center om de energietransitie te versnellen en staat wereldwijd op de 5e plaats.
Azië en Amerika: exaschaal, records en schaduwsystemen
Japan handhaaft een symbool van uitmuntendheid met Fugaku (RIKEN R-CCS, Kobe). Gebaseerd op de Fujitsu A64FX en ARM-architectuur, bereikt het 442 PFLOPS met 26.248,36 kW en blijft een maatstaf voor zijn efficiëntie, tot het punt dat hij de leiding neemt Green500 Volgens de geraadpleegde bronnen geldt het voor onder meer de geneeskunde, het klimaat, AI en energie-efficiëntie.
Rusland heeft ondanks de sancties in 2023 de MSU-270 aan de Lomonosov State University (Moskou). Het integreert ongeveer 100 geavanceerde grafische versnellers (het is onbekend of ze van AMD of Intel zijn) en naar schatting 400 PFLOPS, geïntegreerd in een netwerk van Russische centra voor AI, natuurkunde, scheikunde, wiskunde en geneeskunde.
China combineert discretie en kracht. De serie Sunway (Wuxi) werd in 2016 geboren met TaihuLight (125 PFLOPS) en evolueerde in 2021 naar OceanLight, beschouwd als exascale (>1 exaFLOPS), hoewel er geen officiële cijfers zijn vanwege technologische spanningen met de VS. In 2024/2025, Tianhe-3 (Xingyi) Bij tests zou de smartphone een snelheid van 1,57 tot 2,01 exaFLOPS hebben behaald, waarbij er geruchten gaan dat hij daarmee El Capitan zou kunnen overtreffen.
De Verenigde Staten spelen in de 'grote competitie' met verschillende exaschaalmodellen. Aurora (ANL + DOE), ontworpen om 1,9–2 exaFLOPS te bereiken, werd in 2023 geïnstalleerd en bereikte zijn piek in 2024; vandaag de dag staat het op de 3e plaats in de TOP500 en bedient wetenschap, geneeskunde, klimaat, AI, astrofysica en deeltjesfysica. Parallel, De kapitein (LLNL + NNSA) heeft als doel 2–2,8 exaFLOPS, staat bovenaan de TOP500 en richt zich op nationale veiligheid, met toepassingen in nucleaire simulaties, cyberbeveiliging, gezondheidszorg, klimaatverandering en astrofysica.
Naast de openbare lijst zijn er specifieke AI-initiatieven op nationaal niveau. In Wuhan, China Telecom exploiteert het Central Intelligent Computing Center, gebouwd met binnenlandse hardware en software en vloeistofkoeling, bedoeld voor het trainen van gigantische modellen; sommige bronnen wijzen er zelfs op 5 exaFLOPS, hoewel zonder officiële bevestiging.
India draait door: GPU's, cloud en de exascale-horizon
India wil niet achterblijven. Het initiatief IndiaAI-rekencapaciteit (binnen de IndiaAI Mission) heeft in 2024 ongeveer $ 1.240 miljard toegezegd voor een nieuwe supercomputer met minstens 10.000 GPU's voor AI, in samenwerking met Nvidia. Daarnaast Microsoft kondigde $3.000 miljard aan in januari 2025 voor cloud- en AI-infrastructuur in het land.
Het lokale ecosysteem warmt op: Bhavische Aggarwal (CEO van Ola) investeerde $ 230 miljoen in de Krutrim-2 LLM. Er zijn 34 supercomputers, en de C-DAC drijft, samen met de National Supercomputing Mission (NSM), een nationaal netwerk aan dat tussen 2025 en 2026 India's eerste exascale-systeem zou kunnen opleveren. Het is de bedoeling om meer dan 70 supercomputers in de komende jaren.
Colossus, de supercomputer van xAI, en de energiecontroverse
In de Verenigde Staten, xAI (Elon Musk) heeft Colossus ingezet in Memphis in slechts 122 dagen in 2024. Het begon met 100.000 Nvidia GPU's en er zijn er 200.000 gepland, gericht op Grok 3.0 AI en toekomstige versies. In benchmarktests zou het... 10,6 exaFLOPS van AI, een getal dat het tot een van de machtigste ter wereld zou rekenen.
Niet alles is applaus: het gebruik van aardgas als energiebron heeft kritiek gekregen vanwege de impact op de lokale luchtkwaliteit. Toch illustreert het project de snelheid waarmee de private sector AI-gerichte infrastructuur van wereldklasse kan bouwen.
DGX Spark: de 'desktop supercomputer' die geavanceerde AI thuisbrengt
Nvidia heeft de lat hoog gelegd met DGX-vonk, een compact systeem dat door TIME is uitgeroepen tot een van de "Beste Uitvindingen van 2025" en vanaf 15 oktober algemeen verkrijgbaar is. De kern ervan is de Grace Blackwell GB10, met een snelheid van 1 petaFLOPS, voorzien van ConnectX-7-netwerken en de volledige Nvidia AI-softwarestack, zodat onderzoekers en startups het “plug and play” kunnen gebruiken.
Op hardwareniveau combineert Spark een 20-core ARM-CPU (10 Cortex-X925 + 10 Cortex-A725), 128 GB LPDDR5x Unified GPU-geheugen, 4 TB zelfcoderende M.2 NVMe SSD, 4x USB-C, HDMI, WiFi 7, Bluetooth 5.4, 10 GbE LAN en systeem DGX-besturingssysteemHet is ontworpen voor agentische AI, redeneren en moderne complexe payloads.
Nvidia beweert dat ze dat kunnen fitmodellen met maximaal 70.000 miljard parameters, voer lokale inferentie uit en bewaar gevoelige gegevens on-premise zonder afhankelijk te zijn van de cloud. Andere rapporten geven aan dat het LLM's tot 200.000 miljard parameters afhankelijk van de configuratie en het model, wat de ambitie als desktop “mini datacenter” onderstreept.
Qua functionaliteit is er de mogelijkheid om verbind twee Sparks in een mini-cluster om een "persoonlijke cloud" te creëren. De integratie is eenvoudig: bekabelde en draadloze netwerken, Bluetooth-randapparatuur en de stack CUDA/cuDNN, Triton en gezelschap gaan inzetten Agentprototypes, finetuning, geïsoleerde gevolgtrekking en gegevensbeveiliging.
De startprijs is vastgesteld op Dollar 3.999, en grote merken zoals Acer, Asus, Dell, Gigabyte, HP, Lenovo en MSI zullen varianten op de markt brengen. Let op: dit is geen typische Windows-pc; het is een lokale supercomputer voor AI compatibel met modellen van DeepSeek, de Chinese AIMeta, Nvidia, Google en Qwen, naast andere open-sourceapplicaties. Zelfs Elon Musk heeft al een exemplaar van Jensen Huang ontvangen.
De komst van de Spark valt samen met een verandering in prioriteiten: volgens leiders in de industrie, Gebruikers en bedrijven zoeken naar systemen die de volgende generatie slim opladen ondersteunen.Bestellingen zijn mogelijk via Nvidia.com en geautoriseerde partners en distributeurs.
AI-pc's en werkstations: wanneer u specifieke hardware nodig hebt

Als u modellen gaat trainen of ontwikkelen, is het raadzaam investeer in gespecialiseerde hardware; als je alleen AI consumeert, kan een uitgebalanceerd team volstaan of je kunt je toevlucht nemen tot EC2-instanties in de cloud.
Daarnaast zijn er teams die krachtige AI naar de lokale markt brengen zonder afhankelijk te zijn van de cloud, zoals we hebben gezien met Spark. En als je twijfelt over de juiste keuze, bieden sommige teams persoonlijke ondersteuning: IbericaVIP belooft u te adviseren voor de ideale pc kiezen voor uw AI-projecten.
Community en nieuws: niet alles wat je leest is officieel
Het internet staat vol met Nvidia-gerichte forums en subreddits waar drivers, GPU's en geruchten worden besproken. Let op: Deze communities worden beheerd door fans en vertegenwoordigen Nvidia niet, tenzij uitdrukkelijk vermeld. Het is goed om dit in gedachten te houden bij het beoordelen van lekken of onbevestigde cijfers.
Hoe ze er van binnen uitzien: architectuur, schaal en koeling
Een supercomputer is in wezen een verzameling van duizenden computers die met elkaar verbonden zijn door netwerken met lage latentie en hoge bandbreedteElk knooppunt integreert CPU, GPU, RAM en opslag; het systeem voegt kracht toe via geoptimaliseerde software en bibliotheken.
De heersende maatstaf is FLOPS: we gingen van TFLOPS op thuis-pc's naar PFLOPS en exaFLOPS in HPC. Dus 1 TFLOPS = 1012 FLOPS en 1 PFLOPS = 1015Supercomputers nemen hele kamers in beslag en worden door meerdere teams tegelijk gebruikt, waarbij de bronnen vaak tot het uiterste worden benut.
Koeling is cruciaal. Er zijn CPU's en GPU's die de norm overschrijden. 80 ºCDaarom worden getemperd of vloeibaar water, warmtewisselaars en maatwerk gebruikt. Sommige installaties maken gebruik van creatieve oplossingen, zoals hergebruik warmte voor het verwarmen van gebouwen.
Waar ze zijn en hoe je ze kunt bezoeken
Er zijn meer dan duizend supercomputers in de wereld. China en de Verenigde Staten leiden in aantal en spierkracht, met historische gegevens zoals 226 Chinese systemen onder de 500 krachtigste. De VS heeft echter in bepaalde edities meer PFLOPS (644) in totaal verzameld dan China (565).
In Spanje, Enterprise Performance Management Collaboratie van de BSC-CNS (Barcelona) is de krachtigste van het land. De eerste versies zaten in een glazen kast met micro-mist brandbestrijdingssysteem en een unieke locatie: de kapel op de UPC Noordcampus. Virtuele rondleidingen en soms ook rondleidingen zijn beschikbaar.
Historische documenten plaatsen de inwerkingtreding van Merrie Nostrum 5 tussen 2020 en 2021; het werd uiteindelijk eind 2023 geïntroduceerd met de eerder genoemde prestatieverbetering. Deze evolutie illustreert duidelijk hoe kalenders in HPC aanpassingen ondergaan vanwege de technische complexiteit.
Historische lijsten en andere aanbevolen systemen
De lijst TOP500 Het bestaat al sinds 1993 en wordt twee keer per jaar bijgewerkt. In 2021 stonden bijvoorbeeld Fugaku, Summit, Sierra, Sunway TaihuLight, Perlmutter, Selene, Tianhe-2A, Juwels Booster Module, HPC5 en Frontera in de top 10. Hoewel er al verschillende zijn ingehaald, blijven ze een belangrijke speler. technologische mijlpalen vanwege de impact ervan.
Enkele aanvullende relevante gegevens uit systemen die in de bronnen worden genoemd: Grens (HPE Cray EX, ORNL) was de eerste die officieel met exascale overweg kon; Top (IBM POWER9 + Nvidia V100) blonk uit in Alzheimer, genetica en meteorologie; Sierra (IBM + Nvidia + Mellanox) werkten voor de NNSA aan nucleaire beveiliging.
In Europa zijn er, naast de reeds genoemde, nog meer Juwelen Booster y SuperMUC (Lenovo, directe waterkoeling), met tientallen petabytes en krachtige visualisatieomgevingen. Zwitserland geëxploiteerd Piz lekker (Cray), met DataWarp als burstbuffer om I/O te versnellen.
Italië opgenomen HPC5 (Dell, op ENI) met Xeon Gold 6252 en Nvidia V100; Marconi-100 (IBM POWER9 + Volta V100) bij Cineca; en Perlmutter (Berkeley Lab, VS) was een van de krachtigste in AI-verwerking met 6.000 A100 GPU's, in staat tot 180 PFLOPS en, in bepaalde AI-scenario's, meerdere effectieve exaFLOPS.
In de VS, Selene (Nvidia, A100) blonk uit in efficiëntie (1.344 kW); Frontera (Dell, Univ. of Texas) viel op door zijn opslag (50 PB HDD + 3 PB SSD, 12 Tbps) en herstart in 17 s; Drievuldigheid (Cray XC40) diende de NNSA bij Haswell en Knights Landing; Laten (IBM Power9) versterkte het LLNL-ecosysteem.
Japan promootte ook ABCI (Fujitsu) voor AI in de cloud. En in Spanje, Merrie Nostrum 4 (2017) bereikten 13,7 PFLOPS vóór de sprong naar MN5, met toepassingen in genetica, chemie, paleontologie, meteorologie of luchtkwaliteit (CALIOPE).
Deze hele kaart, van exascale-installaties tot het bureaublad, schetst een nabije toekomst waarin Het testen, afstemmen en afleiden van geavanceerde modellen zal steeds meer een lokaal gebeuren worden, met de cloud als aanvulling. Europa geeft gas met EuroHPC, de Verenigde Staten en China houden de exascale-pols vast, India komt op met enorme investeringen en op desktopgebied opent DGX Spark een tastbare deur naar hoogwaardige AI zonder het lab, kantoor of zelfs huis te verlaten.