Ifølge en artikkel publisert på Artificial Intelligence News, står datasentrene som driver dagens kunstige intelligens overfor en ny og avgjørende utfordring: de går rett og slett tom for plass. Selv med stadig større bygninger, mer kjøling og kraftigere strømtilførsel er det ikke lenger bærekraftig å samle alt i én og samme datasenterbygning. Dette tvinger frem nye løsninger for hvordan infrastrukturen til AI skal organiseres i fremtiden.
Fra “scale-up” til “scale-across”
Tradisjonelt har veksten i AI blitt løst gjennom to veier: å bygge kraftigere maskiner (“scale-up”), eller å samle flere maskiner i én bygning (“scale-out”). NVIDIA introduserer nå en tredje strategi: “scale-across”. Med deres nye løsning, Spectrum-XGS Ethernet, kan flere datasentre kobles sammen og fungere som én gigantisk AI-superfabrikk.
Teknologi som reduserer flaskehalser
Det store problemet når datasentre skal kobles sammen, er nettverkseffektivitet. Høy latens og ustabile overføringer gjør at beregningene sinkes. Med Spectrum-XGS skal NVIDIA løse dette gjennom spesialutviklede algoritmer som automatisk balanserer trafikk, unngår overbelastning og sørger for jevn og forutsigbar ytelse. Ifølge selskapet kan dette nesten doble ytelsen i deres Collective Communications Library (NCCL), som er avgjørende for kommunikasjon mellom GPUer.
Først ut: CoreWeave
Skyaktøren CoreWeave blir den første til å ta i bruk løsningen. CTO Peter Salanki sier at koblingen av selskapets datasentre med Spectrum-XGS vil gi kundene tilgang til «giga-scale AI», og dermed åpne døren til langt mer komplekse og ressurskrevende prosjekter enn tidligere mulig.
Et skifte i datasenterstrategi
Denne utviklingen markerer en ny fase i AI-industrien. I stedet for å bygge stadig større og mer ressurskrevende enkeltanlegg, kan datasentre spres geografisk, men fortsatt arbeide som en samlet enhet. Dette gir fleksibilitet, reduserer press på infrastruktur og kan bidra til lavere driftskostnader – samtidig som ytelsen skyves videre oppover.
Veien videre
Hvis NVIDIA lykkes med sin “scale-across”-strategi, kan vi stå foran en omlegging av hele AI-infrastrukturen. Fremtidens AI kan bli drevet av nettverk av datasentre snarere enn monolittiske bygg – noe som kan gjøre teknologien både mer tilgjengelig og mer robust i møte med stadig økende krav.