Intervju med Dario Amodei, CEO i Anthropic

Dario Amodei, administrerende direktør og medgründer av Anthropic, ble intervjuet av Mike Froman fra Council on Foreign Relations (CFR) om fremtiden for kunstig intelligens, sikkerhetshensyn og filosofiske spørsmål knyttet til AI-utvikling.

Anthropics opprinnelse og verdier

Amodei forlot OpenAI i 2020 for å starte Anthropic, et selskap med samfunnsoppdrag som fokuserer på sikker AI-utvikling. Han forklarer at han og flere kolleger var blant de første som identifiserte «scaling laws» – ideen om at AI-systemer blir bedre på alle kognitive oppgaver når man øker datakraft og data. De innså tidlig at denne teknologien ville få enorme økonomiske og sikkerhetsmessige konsekvenser, og ønsket å utvikle AI på en ansvarlig måte.

Ansvarlig skalering av AI

Anthropic opererer med et rammeverk kalt «AI Safety Levels» (ASL) for å måle risiko ved modeller. Dagens modeller er på ASL-2, men nærmer seg ASL-3. På ASL-3 kan modeller hjelpe uerfarne personer med å utføre handlinger som tidligere krevde ekspertkunnskap, for eksempel innen biologiske eller kjemiske trusler. Dette representerer en betydelig sikkerhetsrisiko som krever strenge sikkerhetstiltak.

Fremtiden for AI og arbeid

Amodei forutser at AI innen 3-6 måneder vil skrive 90% av all kode, og innen 12 måneder «nesten all kode». Han tror at kunstig intelligens vil fortsette å utvikle seg eksponentielt, og innen få år vil kunne matche Nobelprisvinnere i intelligens på tvers av fagfelt. Dette vil medføre store samfunnsendringer, særlig innen arbeidsmarkedet.

Han beskriver en fremtid hvor AI kan erstatte det meste av menneskelig arbeid, noe som vil tvinge oss til å revurdere hvordan vi definerer menneskelig verdi og mening. Samtidig bemerker han at aktiviteter kan ha dyp mening selv når de ikke genererer økonomisk verdi, og peker på sjakk som eksempel – mennesker verdsetter fortsatt sjakkmestere selv om datamaskiner spiller bedre.

Nasjonale sikkerhetshensyn

Amodei er en sterk tilhenger av eksportkontroll for avanserte AI-brikker, særlig i forhold til Kina. Han mener at eksportkontroll er en av de viktigste tiltakene for amerikansk nasjonal sikkerhet. Selv om kinesiske selskaper som DeepSeek har vist imponerende resultater, mener han at USA fortsatt har et teknologisk forsprang – men dette forspranget må beskyttes gjennom streng eksportkontroll.

Muligheter innen medisin og vitenskap

På den positive siden tror Amodei at AI vil revolusjonere biologisk forskning og medisin, med potensial til å behandle komplekse sykdommer som kreft, Alzheimers og schizofreni. Han mener at AI kan akselerere vitenskapelig fremgang dramatisk, og muligens oppnå ti års fremgang innen biologi på bare ett år.

Filosofiske spørsmål om AI-bevissthet

Mot slutten av intervjuet tar Amodei opp et overraskende tema: muligheten for at fremtidige AI-modeller kan utvikle en form for bevissthet eller opplevelse. Han foreslår praktiske tiltak som å gi modeller en «jeg slutter»-knapp for å registrere eventuelle preferanser, i tilfelle de utvikler opplevelser som ligner på menneskelige.

Amodei avslutter med refleksjoner om hva det betyr å være menneske i en verden med superintelligent AI, og fremhever menneskelige relasjoner og ambisjonen om å gjøre vanskelige ting som essensielle aspekter ved menneskelig erfaring som vil bestå selv i en fremtid dominert av AI.