Hva er egentlig en GPU?
En GPU (Graphics Processing Unit) – tidligere kjent som skjermkort – er en spesialisert datakomponent designet for å håndtere bilder, video og grafikk. I motsetning til datamaskinens hovedprosessor (CPU) som er laget for å håndtere mange ulike oppgaver, er GPUen spesielt bygget for å gjøre én type beregninger veldig raskt: nemlig å behandle massevis av visuelle data samtidig.
Den utrolige mengden beregninger i moderne grafikk
For å forstå hvor kraftige moderne GPUer er, la oss se på hva som skjer når du spiller et moderne dataspill i 4K-oppløsning:
En 4K-skjerm har en oppløsning på 3840 × 2160 piksler. Det betyr at skjermen inneholder:
3840 × 2160 = 8 294 400 piksler
For hvert bilde som vises på skjermen, må GPUen beregne fargen for hver enkelt av disse 8,3 millioner pikslene. Men det er bare begynnelsen!
Hvis spillet kjører med 60 bilder per sekund (60 fps), som er standard for en god spillopplevelse, betyr det at GPUen må beregne:
8 294 400 piksler × 60 bilder per sekund = 497 664 000 pikselberegninger per sekund
Nesten en halv milliard pikselberegninger hvert sekund! Men det er fortsatt bare overflaten.
For hver piksel må GPUen faktisk gjøre mange komplekse beregninger:
- Bestemme hvilke objekter som er synlige fra spillerens perspektiv
- Beregne hvordan lys reflekteres fra overflater
- Legge til skygger og spesialeffekter
- Beregne teksturer, farger og dybde
Hver av disse oppgavene kan kreve mange matematiske operasjoner for hver eneste piksel. I moderne spill med avansert grafikk kan hver piksel kreve hundrevis eller tusenvis av beregninger.
La oss si at et avansert spill i gjennomsnitt krever 1000 beregninger per piksel (som faktisk er et konservativt anslag for de mest avanserte spillene). Da får vi:
497 664 000 pikselberegninger × 1000 beregninger per piksel = 497 664 000 000 beregninger per sekund
Det er nesten 500 milliarder beregninger per sekund bare for å vise spillgrafikk i 4K ved 60 fps!
Hvorfor GPUer er perfekte for jobben
En moderne CPU ville slitt enormt med å håndtere disse beregningene alene. Men GPUer er laget spesielt for denne typen arbeid, fordi:
- De har massevis av beregningskjerner: Mens en vanlig CPU kanskje har 8-16 kraftige kjerner, har en moderne Nvidia-GPU tusenvis av mindre, spesialiserte kjerner.
- De er bygget for parallelle beregninger: Alle disse tusenvis av kjernene kan jobbe samtidig med forskjellige deler av bildet – nesten som å ha tusenvis av små regnemaskiner som hver tar sin lille del av det store regnestykket.
For å sette det i perspektiv: Tenk deg at du skal male et enormt veggmaleri. En CPU ville vært som å ha én svært dyktig kunstner som maler hele maleriet, mens en GPU er som å ha tusenvis av malere der hver maler en liten del av bildet samtidig.
Fra spillgrafikk til kunstig intelligens
Det fantastiske er at denne samme evnen til å gjøre enorme mengder parallelle beregninger viste seg å være akkurat det som trengs for å trene kunstig intelligens-modeller.
En AI-modell som ChatGPT består i praksis av milliarder av matematiske «vekter» eller parametere som må justeres gjennom treningsmillioner av eksempler. For hver justering må det gjøres matematiske beregninger – akkurat den typen beregninger GPUer er eksperter på.
Nvidia forsto denne muligheten tidlig og utviklet programvare (CUDA) som gjorde det enkelt for forskere og utviklere å bruke GPUer til generelle beregninger, ikke bare grafikk. Dette geniale trekket posisjonerte dem perfekt for AI-revolusjonen.
Hvorfor Nvidia leder an
Nvidia har bygget verdens mest avanserte GPUer, spesielt designet for AI-bruk, som deres H100-serie. Disse benyttes i enorme datasentre over hele verden for å trene og kjøre de største AI-modellene. En enkelt H100-brikke kan utføre over 1000 billioner (1 000 000 000 000 000) beregninger per sekund – det er 1000 ganger flere enn eksempelet fra 4K-spillet!
Dette har gjort at alle store teknologiselskaper er avhengige av Nvidias produkter for å kunne utvikle og kjøre sine AI-tjenester, noe som forklarer selskapets enorme vekst og verdi.
Konklusjon
Nvidias suksess er resultatet av et perfekt sammentreff: De hadde utviklet GPUer for spillindustrien som viste seg å være nøyaktig hva AI-industrien trengte. De så denne muligheten tidlig, investerte strategisk, og bygget et helt økosystem av maskinvare og programvare som gjør det mulig å utvikle kunstig intelligens i en skala som tidligere var utenkelig.
Fra å beregne hvordan lyset treffer en digital karakter i et dataspill, til å drive verdens mest avanserte AI-systemer – Nvidias GPUer har blitt hjernen bak vår tids største teknologiske revolusjon.