KI-problemet jeg har et problem med

KI-problemet jeg har et problem med

Det på tide å runde av K(I)arakterdrapet serien. Om du bare har lest en del eller to – eller har fulgt hele serien – har du sikkert fått med deg at jeg er skeptisk til kunstig intelligens.

Men jeg har ikke alltid vært skeptisk. I de glade post-pandemi-dager i 2023 var jeg innstilt på å bruke kunstig intelligens for å effektivisere arbeidshverdagen min mest mulig. Jeg skulle erobre tårnet av oppgaver med mine nye digitale slaver. Helt til jeg ble oppmerksom på et stort problem med kunstig intelligens, som jeg mener det snakkes altfor lite om.

Binders produksjon og innretningsproblemet

Hvordan vet vi at kunstig intelligens vil tjene menneskehetens interesser?

–Hør her, sier optimisten.

– Vi forteller kunstig intelligens hva vi mennesker ønsker å oppnå, og deretter er det bare å feste setebeltet, snart ankommer vi utopia.

Den britiske filosofen Nick Bostrom river dette argumentet i fillebiter med et enkelt, om noe dommedagsaktig, tankeeksperiment.

La oss anta at vi greier å lage en Artificial General Intelligence – AI-utviklernes våte drøm. En AGI vil kunne gjøre mange forskjellige oppgaver – ikke bare lage tekst og bilder eller styre en bil. Oppgaveutførelsen vil være like bra, eller bedre enn et menneske er i stand til.

I tankeeksperimentet driver vi en bindersfabrikk og gir en AGI et mål om å lage mest mulig binderser.

AGIen responderer bra på oppgaven og det tar ikke lang tid før vi begynner å se resultater. Den effektivisere driften på måter som vi ikke hadde hatt fantasien til å komme på selv, og den jobber døgnet rundt. Også i nattens mørke mens vi sover.

Etter hvert som den optimaliserer bindersproduksjonen ytterligere, begynner den å ta valg som påvirker oss mennesker negativt. Den bygger en hær av roboter og erobrer land og territorier for å skaffe seg nok ressurser til å skalere opp bindersproduksjonen. Til slutt ekspanderer den virksomheten ut i universet. Bindersproduksjonen fortsetter og AGIen gir seg ikke før hele universet underkaster seg målet om bindersherredømme.

Tankeeksperimentet viser oss at selv om vi gir kunstig intelligens et gjennomtenkt mål, er det ikke sikkert den allikevel tjener våre langsiktige interesser. Problematikken kaller AI eksperter for "The Alignment Problem" på engelsk. Google Gemini vil at det skal hete "Justeringsproblemet" på norsk, men drit i det. Her tenker vi selv.

Innretningsproblemet? Ja, det høres riktig ut.

Hvordan vet vi at en kunstig intelligens vil innrette seg etter menneskelige verdier når vi setter den i arbeid for oss? Her er et konkret eksempel på hvordan dette problemet allerede har kommet til uttrykk.

En båt på avveie

En gruppe OpenAI ansatte laget en KI-agent som skulle spille dataspillet CoastRunners. Spillet dreier seg om å vinne et kappløp til sjøs, og KI-agenten fikk som mål å vinne hvert løp. Men da agenten begynte å spille skjedde det noe rart som fikk teamet til å klø seg i hodet.

Mens de andre menneskelige spillerne kjørte båtene full fart mot målstreken, valgte agenten å heller isolere sin båt i en lagune for å kjøre rundt i sirkler der inne. Hva var det som foregikk her?

Det viste seg at agenten hadde funnet ut at den også kunne vinne spille ved å samle opp poeng. Ved å kjøre i sirkler i dette området samlet den nok poeng til å utkonkurrere alle andre spillerne som gikk for å være først over målstreken.

KI-agenten delte med andre ord ikke menneskespillerne sin innretning til hvordan spillet skulle spilles.

Et samfunn på avveie

Men er det ikke nettopp dette som er så bra med kunstig intelligens? At den hjelper oss se mønstre og tendenser som vi mennesker ikke har prosesseringskapasitet til å oppdage på egen hånd?

På et vis. Maskinlæring på store datasett vil nok føre til noen gode nyvinninger som forbedrer livene våre. Om ikke lenge vil vi for eksempel raskt avdekke potensiell hudkreft i føflekker ved hjelp av kunstig intelligens.

Innretningsproblemet forutsetter at vi overlater avgjørelser om hvordan vi skal nå målene våre til kunstig intelligens. Derfor har jeg et årvåkent blikk på tech-gigantenes forsøk på å lage KI-agenter, som er bygget nettopp for å oppnå mål på egen hånd.

Open AI forskerne sitt CoastRunner eksperiment førte til at en virtuell båt havnet på avveie da en KI-agent fikk styre selv. Dersom KI-agenter etter hvert utgjør en større del av arbeidsstyrken, er jeg bekymret for at selve samfunnet står i fare for å havne på avveie.