Karakterdrapet – Del 2
Vi lærer mindre og tenker mindre kritisk når vi bruker kunstig intelligens
Til nye abonnenter. Dette er en del 2 av en lengre serie hvor jeg stiller spørsmålet: Hvordan vil kunstig intelligens påvirke vår evne til å bygge karakter?
Maskiner som lærer
En omfattende studie fra MIT viser at 95% av alle KI-prosjekter feiler. Problemet, skriver de, er språkmodellenes manglende evne til kontinuerlig læring.
The core barrier is not infrastructure, regulation or talent. It's learning. Most GenAI systems do not retain feedback, adapt to context or improve over time.
Språkmodeller som ChatGPT og Gemini er et resultat av maskinlæring, hvor en datamodell finner mønster i språket vårt og lærer seg hvilke ord som typisk følger etter hverandre og dermed hvordan begreper og sammenhenger uttrykkes. Allikevel er det overraskende vanskelig for modellen å lære kontinuerlig.
Personlig river jeg meg i håret når jeg nok en gang må ChatGPT på hva jeg prøver å oppnå, selv om jeg tidligere i samtalen har vært veldig tydelig på hvilken oppgave jeg gir den.
At vi må "starte på nytt" er et bevisst designvalg som skal gjøre modellene trygge å bruke. Dette overlater treningen av modellen til fagfolk slik at de får muligheten til å teste den siste versjonen før den offentliggjøres.
Samtidig har OpenAI, Anthropic og andre har gått sammen om Agentic AI Foundation for å utvikle åpne standarder for AI-agenter som kan samarbeide, integrere verktøy og reagere dynamisk i lengre arbeidsprosesser.
Med andre ord: Modeller som i praksis lærer fortløpende.
Og hva skjer når de lykkes? Hvordan vil vår evne til å lære påvirkes av at vi har systemer som lærer for oss?
Det er på tide å utforske hvordan kunstig intelligens vil påvirke vår evne til å tilegne oss visdom, én av de fire stoiske verdiene.
Å vite hva som er bra
When a man does not know what harbor he is making for, no wind is the right wind. – Seneca
Visdom som noe som kommer alderen. Det er noe man danner seg gjennom livserfaring. Men selv om eldre har mer livserfaring, er det langt fra alle eldre som er vise. Med andre ord handler visdom om noe mer enn bare erfaring og ren kunnskap: Vi må bruke den riktig.
Stoikerne mente at visdom er evnen til å skille mellom hva som er godt og ondt.
For å være vis, må vi ha kunnskap og bruke den for å skille mellom alternativ.
Jeg skal ikke forsøke å definere hva som er godt. Den friheten overlater jeg til hver enkelt leser. Det viktigste er prinsippet om at visdom gjør oss i stand til å skille mellom godt og ondt, slik at vi kan handle i tråd med våre verdier.
Mindre innsats, mindre læring
Vi må tilegne oss kunnskap for å kunne vite hva som er rett å gjøre. Men lærer vi noe særlig hvis vi bruker kunstig intelligens til å for eksempel skrive en oppgave for oss? Det var dette spørsmålet en rekke tyske forskere stilte seg i en studie fra 2024. Deltagerne fikk en oppgave som halvparten skulle løse ved å bruke ChatGPT3.5 – den andre halvparten fikk bare bruke Google.
Forskerne dro fire konklusjoner fra resultatene:
- Deltagerne som brukte ChatGPT hadde mindre mental belastning enn de som brukte Google.
- ChatGPT-gruppen leverte oppgaver med dårligere resonnement.
- Det var ikke en stor forskjell i hvor mangfoldige perspektivene var mellom gruppene.
Og til slutt:
- Resultatene antyder at språkmodeller reduserer mental belastning men begrenser hvor mye vi engasjerer oss med temaet vi undersøker.
These findings highlight the nuanced implications of digital tools on learning, suggesting that while LLMs can decrease the cognitive burden associated with information gathering during a learning task, they may not promote deeper engagement with content necessary for high-quality learning per se.
Dette stemmer overens med funnene fra en nylig studie fra MIT (som jeg skrev om i forrige uke) hvor forskere kunne se betydelig sterkere aktivitet i hjernen til folk som løste en oppgave uten å bruke kunstig intelligens.
De advarte mot å skrive at folk blir dummere av å bruke kunstig intelligens. Men hvis en ting er sikkert, så er det at kunstig intelligens gjør jobben lettere for oss, og det skal godt gjøres å bli sterkere av å velge de letteste vektene på treningsstudioet.
Mer tillit til AI, mindre kritisk tenkning
Mens den tyske studien sådde tvil om hvor mye vi lærer når vi bruker kunstig intelligens til å løse oppgaver, har en annen studie sådd tvil om den andre komponenten av visdom:
Evnen til å bruke kunnskapen vår.
Men er ikke kunnskapen vår noe vi bruker hele tiden? Ikke nødvendigvis. Ifølge en av vår tids mest anerkjente psykologer handler vi stort sett på instinkt. Forskningen til Daniel Kahneman, popularisert gjennom boken Thinking, fast and slow, viser at de aller fleste beslutninger vi tar er kjappe og intuitive og krever lite bevisst bruk av kunnskapen vår. Når vi tar beslutninger på denne måten er det System I vi bruker, og vi bruker det mer enn vi tror; vi danner oss førsteinntrykk av folk, velger mat fra en meny og plukker opp mobilen fra lomma i en bukse system 1 valgte ut for oss i klesbutikken.
System 2, derimot, hjelper oss ta beslutninger som System I ikke klarer på egenhånd. Det er mer ressurskrevende for oss, men i gjengjeld hjelper det oss med utrolige ting. Når vi lærer nye ferdigheter, spiller sjakk, feilsøker et problem eller reflekterer kritisk over egne beslutninger er det System 2 som jobber.
Med andre ord, å bruke kunnskapen vår forutsetter et aktivt system 2. Men er det dette systemet vi bruker når vi jobber med en kunstig intelligens?
En spørreundersøkelse gjennomført av Microsoft, viste at folk med høyere tillit til kunstig intelligens tenkte mindre kritisk når de brukte verktøyet. De som hadde høyere selvtillit var mer kritiske til svarene de fikk.
Stoler vi på kunstig intelligens er det ikke så viktig for oss å tenke selv og det vi eventuelt foretar oss av kritisk tenkning, som Microsoft skriver i rapporten, går til å verifisere informasjon.
Dette kan bli et stort problem når vi ønsker å bruke system 2 til å ta bevisste valg hvor vi bruker kunnskapen vår. System 2 aktiveres bare når vi møter noe som bryter med forventningene våre, eller de normale mønstrene som system 1 kjenner. At kunstig intelligens er bygget for å "lære seg" disse mønstrene for så å gi oss svar som er mest mulig likt det vi forventer, kan bety at vi potensielt vil gå glipp av mange muligheter for å koble på kunnskapen vår i vurderingene vi gjør fremover.
Ansvarspåskrivelse
Det er viktig for meg å presisere at jeg ikke er en forsker. Men jeg har lest studiene og bøkene jeg refererer til i denne artikkelen og prøver så godt jeg kan å videreformidle så nøytralt jeg kan. I den grad jeg bruker kunstig intelligens er det til å finne forskning rundt et tema jeg synes er interessant, men jeg ber ikke ChatGPT om å oppsummere studien for meg. Det er tungt og tidkrevende arbeid, men jeg er overbevist om at jeg lærer best når jeg går helhjertet inn i en forskningsrapport – og det er et ansvar jeg påskriver meg selv.
Kunnskapen skal jeg forsøke å bruke til et formål jeg mener er godt:
Å nyansere samtalen om kunstig intelligens, slik at det teknologiske skiftet ikke går på bekostning av vår karakter.
Neste uke skal vi se nærmere på hvordan kunstig intelligens vil påvirke vår evne til å leve i tråd med en annen av de fire stoiske verdiene. En verdi som spesielt til nytte i brytningstider.
Mot.