K(I)arakterdrapet – Del 4

K(I)arakterdrapet – Del 4

Etter en pustepause i høytiden (hvor jeg håper at det litt tragiske rådet mitt falt i smak), fortsetter vi å se på hvordan kunstig intelligens kan påvirke vår evne til å bygge karakter. Denne uken dreier det seg om den kanskje viktigste verdien som utgjør en persons karakter: rettferdighet.

Men først, et lite sammendrag av hva vi har dekket så langt. Det ligger i den finurlige boksen under, og du kan selv velg om du vil lese den korte oppsummeringen eller den lange (Jeg fikk litt overtenning).

Karakter, visdom og mot


Kortversjonen:

Karakter er vår evne til å leve i tråd med de fire kardinaldydene – eller verdiene: Visdom, mot, rettferdighet og selvbeherskelse.

Visdom er evnen til å tilegne seg kunnskap, og bruke kunnskapen i valgene vi tar. Forskning viser at vi lærer mindre når kunstig intelligens brukes til oppgaveløsing, sammenlignet med søkemotor. I tillegg tenker vi mindre kritisk på svarene vi får fra en kunstig intelligens.

Tidene vi lever i krever at vi tar modige valg. Men kunstig intelligens har gjort det mulig for oss å enkle ta enkle snarveier, og utnytter vår naturlige tilbøyelighet for å velge disse snarveiene.

Langversjonen:

Begrepet karakter blir brukt for å beskrive en personlighet eller persons tendenser. Men en slik definisjon blir for statisk. Personlighet er i stor grad satt og endrer seg lite, mens karakter er noe man bygger over tid. I mangel på en god definisjon fra sanntiden, landet jeg på at en definisjon fra antikken var et godt utgangspunkt.

Stoikerne mente at vår karakter henger sammen med vår evnen til å leve i tråd med de fire kardinaldydene – eller verdiene: Visdom, mot, rettferdighet og selvbeherskelse.

Studier på oppgaveløsning viser at vi lærer mindre når vi bruker ChatGPT, sammenlignet med hvis vi bruker Google, eller bare knollen. I tillegg tenker vi mindre kritisk når vi får svar som virker overbevisende. De som har mer tillit til teknologi tenker også mindre kritisk på svarene de får, sammenlignet med de som har mer tillit til seg selv (selvtillit).

Den norske forfatteren, partikkelfysikeren og KI-eksperten Inga Strümke sa det godt i et nylig debattinnlegg i aftenposten:

"Trusselen fra KI er ikke at systemene blir superintelligente, men at de blir superoverbevisende, og at vi blir superavhengige.

For å forstå hvorfor vi tar svarene vi får fra kunstig intelligens uten en klype salt, er det nyttig å ta i bruk Daniel Kahneman sitt teoretiske rammeverk, popularisert gjennom boken Thinking, fast and slow. Ifølge Kahneman har vi to system vi bruker for å ta beslutninger: System 1 og System 2.

System 1 er intuitivt, raskt og lite ressurskrevende – og durer i bakgrunnen av nesten alle beslutningene vi tar. Når vi danner oss et førsteinntrykk av en person, bestemmer oss for å gi et mindre beløp til veldedighet eller kjører den vanlige ruta til jobb, er det stort sett system 1 som jobber.

System 2 er mer rasjonelt, langsomt og ressurskrevende. Det aktiveres kun når oppgaven er for krevende for system 1 – For eksempel dersom oppgaven ikke lar seg løses intuitivt, inneholder noe uventet eller selvmotsigende eller bryter med et mønster.

Å regne ut 2 + 2 tar system 1 seg av. På regnestykket 34 x 16, derimot, tar system 2 over.

De intuitive svarene vi får av kunstig intelligens har alle ingrediensene for å slukes av system 1 som et fastfood måltid uten at system 2 kobles på for å vurdere informasjonen rasjonelt.

Det som skal til for å bygge visdom, evnen til å tilegne seg kunnskap (lære) og anvende den riktig (bruke kunnskapen gjennom system 2), står i fare for å bli med som nyttelast på KI–toget som varsles snarlig avgang.

Samtidig befinner vi oss i en historisk tid, med enorme utfordringer som overgår hva tidligere generasjoner stått ovenfor. Motet vi trenger for å la vær å stikke hodet i sanden slipper vi å øve oss på takket være en teknologi som lar oss ta snarveier og utnytter vår medfødte tilbøyelighet for å velge disse snarveiene.

I snarveiland, der kan alt gå ann.

Rettferdighet, sannhet og informasjon

Vil informasjonsmengden som nå ikke bare er tilgjengelig på nett, men som KI kan oppsummere for oss i kulepunkter, lede til beslutninger som er rettferdige for alle på vår lille kule? Med et verktøy som raskt kan gi oss informasjonen vi trenger for å ta gode beslutninger ligger vel forholdene til rette for at vi endelig kan heve oss over våre negative menneskelige tendenser og handle mer rettferdig. Eller?

Ikke nødvendigvis.

Om kunstig intelligens vil påvirke vår evne til å handle mer rettferdig, henger sammen med hvorvidt kunstig intelligens lar oss avdekke hva som er sant.

For som den tideligere britiske statsministeren Benjamin Disraelei sa, er rettferdighet sannhet i handling.

Informasjon er ikke bare sannhet

Kunstig intelligens kan oppsummere enorme mengder informasjon lynraskt. Da er det nærliggende å tro at det blir lettere å avdekke sannheten. Men dette er en grunnleggende misforståelse av hva informasjon faktisk er. Den Israelske historikeren og forfatteren av den hyperaktuelle boken om informasjonsnettverk Nexus, Yuval Noah Harari, kaller det for den naive oppfatningen av informasjon.

Ifølge Harari er ikke informasjon noe som kun representerer hva som er sant – eller virkeligheten. Informasjon er i mye større grad det som binder sammen tidligere atskilte deler av virkeligheten for å skape nye virkeligheter.

Han skriver at den naive oppfatningen, troen på at hovedrollen til informasjon er å representere virkeligheten, og at desto mer informasjon som er tilgjengelig, desto sannere vil representasjonen av virkeligheten bli, er feilaktig.

Hadde det vært slik, argumenterer han, kunne man sagt at rasister bare er dårlig informert, og ikke kjenner til fakta om for eksempel biologi eller historie.

Så enkelt er det ikke.

Informasjon kan i enkelte tilfeller representere virkeligheten – eller sannhet. Men det er ikke hovedfunksjonen til informasjon. I stedet knytter informasjon sammen deler av virkeligheten, som vi mennesker lager historier av (eller nye virkeligheter). Hvilke historier eller virkeligheter som overlever er tett sammenknyttet med samfunnets verdier og instutisjoner, samt våre egne overbevisninger.

Og mer en aldri før: Teknologi.

Når et annet menneske forteller deg en historie, er det implisitt at det er et synspunkt som kommer til uttrykk. Kunstig intelligens, derimot, kan fort gi oss inntrykket av at det er en dråpe sannhet destillert ned fra et hav av informasjon. Dette kan være farlig.

Forfatteren, partikkelfysikeren og KI-eksperten Inga Strümke kunne for eksempel melde om følgende i en kronikk i Aftenposten:

Nylig så jeg et åpenbart KI-generert klipp av at det regnet fisk fra himmelen under et ekstremvær. Som et eksperiment spurte jeg Googles KI-assistent om hendelsen var ekte. Svaret var at det hadde skjedd, og referansen som underbygget det hele, var nettopp den KI-genererte videoen.

Om ikke lenge blir det fullstendig umulig å skille KI-genererte klipp fra virkeligheten. Tekstene vi får i svar fra språkmodeller som ChatGPT vil også bli enda mer overbevisende.

Som Strümke advarer:

Trusselen fra KI er ikke at systemene blir superintelligente, men at de blir superoverbevisende, og at vi blir superavhengige.

Det er med andre ord høyst usikkert om kunstig intelligens vil gjøre det lettere for oss å avdekke hva som er sant. Men hva med handlingene våre? Rettferdighet er sannhet i handling. Hvordan vil vår motivasjon til å handle rettferdig basert på informasjon bli påvirket?

Kunsten å føle seg ansvarlig for sine handlinger

Opplevelsen av at handlingene dine påvirke verden direkte, og at du har evnen til å utøve din vilje i verden kalles for agens. Det er en følelse av kontroll over handlinger dine og konsekvensene de medfører. På godt og vondt. Hvis jeg kjører mindre bil, hjelper jeg gjøre verden et bedre sted. Svarer jeg ikke på denne e-posten, påvirker det kundeforholdet. Men hva skjer om vi legger til et digitalt mellomledd?

Personlig føler jeg at min egen agens forsvinner når digitale systemer blir et mellomledd mellom meg og verden. Her viser forskning på sosiale medier at jeg ikke er alene. Bare en kort pause fra algoritmene på sosiale medier gjør at folk får en fornyet følelse av agens.

Videre viser forskning på algoritmestyrt oppgavefordeling på arbeidsplassen, som bare vil øke når AI agenter vil kunne fordele oppgaver, at folks følelse av autonomi og selvstyre blir svekket når fordeling av oppgaver blir overlatt til digitale systemer. Hvis du ikke føler at du styrer hverdagen din, forvitrer følelsen av agens.

At forskere også har funnet en kobling mellom opplevd agens og at vi føler oss ansvarlige for handlingene våre, betyr at teknologiske mellomledd som kunstig intelligens potensielt kan skape en distanse mellom handlingene våre og konsekvenser – som reduserer motivasjonen vår for å handle rettferdig. Resultatene fra en oppfølgingsstudie avdekket dessuten en sammenheng mellom hvor sterk agens folk har, og hvor strengt de vurderte moralske situasjoner der andre var involvert. Resultatene fra sistenevnte studie var riktig nok noe tvetydige: de som opplevde mest agens, tenderte mot å dømme moralske situasjoner kraftigere – også når intensjonen bak handlingen de dømte ikke var kjent (for eksempel hvis det kunne ha vært et uhell).

Sannhet i handling

Rettferdighet er sannhet i handling. Kunstig intelligens gjør det lettere å generere og oppsummere store mengder informasjon. Men det er usikkert om den vil gjøre det lettere å avdekke hva som er sant. Det den derimot vil føre til, er en vekst i algoritmestyrte verktøy som vil potensielt vil dekke enda flere områder av livene våre. Potensielt, kan disse verktøyene redusere vår opplevde agens, noe som vil påvirke hvordan vi dømmer våre egne, og andre sine handlinger.

Det er viktig for meg å presisere at jeg ikke har evnen til å sette to streker under svaret her. Jeg er et ufullkomment menneske som søker etter informasjon – hvis rolle ikke er å representere virkeligheten, men heller koble sammen deler av virkeligheten – som jeg forsøker å lage en appellerende historiefortelling av. Selv om jeg forsøker å holde et åpent sinn har jeg valgt hvilken informasjon jeg inkluderer, og med det ekskludert alternativ informasjon.

Som sagt, når et annet menneske forteller deg en historie, er det implisitt at dette et synspunkt som kommer til uttrykk. Ikke bare er det lettere å forholde seg til noe som åpenbart er et menneskelig perspektiv – det er også langt mer interessant.

Da musikkprodusenten Rick Rubin ble spurt om hva han tenkte om kunstig intelligens svarte han:

Jeg kan ikke så mye om kunstig intelligens. Men det jeg vet er at jeg liker kunst fordi det er et annet menneske sitt perspektiv på verden. Kunstig intelligens har ikke et eget perspektiv.