Slik unngår din bedrift de pinlige KI-feilene mediehusene gjør

Stadig flere nyhetsorganisasjoner tar i bruk kunstig intelligens (KI) for å effektivisere produksjonen av artikler. Dette er i utgangspunktet en positiv utvikling som kan frigjøre tid for journalister til å fokusere på dypere research og kritisk analyse. Men det kommer med en stor advarsel: Uten riktig kompetanse og robuste kontrollsystemer kan det gå fryktelig galt.

Hos Data Sør er vi spesialister på KI, og vi ser ofte fallgruvene bedrifter går i når de tar i bruk generativ KI. En fersk sak fra et av verdens største mediehus, Fox News, er et perfekt eksempel.

Når KI-modellen lever i fortiden

I en artikkel om programleder Jimmy Kimmel og protester mot Donald Trump, ble sistnevnte omtalt som «former President Trump». Ved første øyekast ser det kanskje ikke så rart ut, men konteksten avslører en klassisk KI-feil.

Feilen skyldes høyst sannsynlig at artikkelen ble generert av en KI med en «kunnskapskutt-dato». Språkmodeller (LLM-er) trenes på enorme mengder data, men denne kunnskapen er fryst i tid på det tidspunktet treningen ble avsluttet. Modellen som ble brukt her, hadde trolig en kutt-dato som var før den nåværende politiske situasjonen, og manglet derfor oppdatert kontekst.

Det er urovekkende at en så stor organisasjon som Fox News ikke har bedre kontrollrutiner for å fange opp slike åpenbare feil. Det understreker et kritisk poeng: Å bare plugge inn en standard KI-løsning er sjelden godt nok.

Hvorfor en «nyere» modell ikke er løsningen

En umiddelbar tanke kan være å bytte til en nyere og mer oppdatert språkmodell. Men dette er bare en kortsiktig løsning. Nyhetssyklusen og verden for øvrig endrer seg kontinuerlig. Selv den nyeste modellen vil være utdatert i det øyeblikket den lanseres.

Så hvordan kan man sikre at KI-generert innhold er dagsaktuelt og korrekt?

De profesjonelle løsningene

Heldigvis finnes det smarte metoder for å løse dette problemet, og dette er teknologi vi i Data Sør har lang erfaring med.

  1. KI med sanntids-nettsøk: Én tilnærming er å bruke systemer der språkmodellen kan utføre søk på internett i sanntid for å hente den aller nyeste informasjonen før den genererer et svar.
  2. Dobbeltkontroll med en ekstra KI: En annen strategi er å sette opp et system med to KI-modeller. Én modell genererer teksten, mens en annen er spesifikt instruert til å faktasjekke og verifisere informasjonen i den genererte teksten opp mot ferske kilder.
  3. Retrieval-Augmented Generation (RAG): Dette er en av de mest robuste og fleksible løsningene. RAG-teknologi lar oss koble språkmodellen til en ekstern, kuratert kunnskapsbase – for eksempel en database med de siste ukers nyhetsartikler, interne dokumenter eller produktinformasjon. Når KI-en skal skrive, henter den relevant og oppdatert informasjon fra denne databasen først. Dette er langt mer effektivt og realistisk enn å skulle trene en hel språkmodell på nytt, noe som krever enorme ressurser.

På vår partnerside PromptDuell kan du se hvilke språkmodeller som faktisk vet hvem som er president i USA.

Vår erfaring i praksis

Hos Data Sør vet vi hvordan slike feil kan unngås. Derfor har vi utviklet nyhetstjenesten nyhetsradar.no – et testmiljø hvor vi kan prøve ut teoriene våre i praksis, og ikke bare snakke om dem.

Generativ KI er et kraftig verktøy, men det krever ekspertise for å brukes trygt og effektivt. Feilen hos Fox News er en påminnelse om at uten en solid strategi for faktasjekking og dataoppdatering, risikerer man ikke bare pinlige feil, men også å spre feilinformasjon.

Er din bedrift klar for å ta i bruk KI på en trygg og verdiskapende måte? Ta kontakt med Data Sør i dag for en prat om hvordan vi kan hjelpe dere med å bygge robuste og pålitelige KI-løsninger.

Ved å utføre et enkelt Google-søk finner vi flere «problemsaker»: https://www.google.com/search?q=%22former+president+trump%22&tbs=qdr:d