Uncategorized
2 400 år gammelt problem viser hvor nær ChatGPT er menneskelig intelligens
Nærmere enn man tror
Hvor nær er egentlig ChatGPT menneskelig tenkning? For å finne ut av det gikk forskere tilbake til en av de eldste intellektuelle utfordringene som finnes – et matematisk problem fra den greske filosofen Sokrates. Resultatet gir et interessant innblikk i hvordan kunstig intelligens lærer, og hvor grensene går mellom ekte forståelse og ren databehandling.
Et eldgammelt problem
Forskerne stilte ChatGPT det klassiske problemet fra Sokrates’ tid: Hvordan kan man doble arealet av et kvadrat? I fortellingen gjør studenten først feilen ved å doble lengden på sidene, noe som gir fire ganger så stort areal. Etter veiledning fra Sokrates innser studenten at den riktige løsningen ligger i å bruke kvadratets diagonal som utgangspunkt for de nye sidene.
Men poenget for Sokrates var ikke matematikk i seg selv – han ville vise at mennesket allerede har evnen til å resonnere seg fram til kunnskap som ligger latent i oss. Spørsmålet forskerne stilte var derfor om ChatGPT, som kun er trent på tekst, kunne vise en lignende evne til logisk resonnering.
Forskerne forventet feil
Studien ble gjennomført av Dr. Nadav Marco ved Det hebraiske universitetet i Jerusalem og professor Andreas Stylianides ved Universitetet i Cambridge. De antok at ChatGPT ikke ville klare oppgaven korrekt, siden modellen ikke har visuell forståelse eller direkte erfaring med geometri.
De fikk delvis rett. ChatGPT forsøkte å løse problemet, men feilet på en måte som lignet menneskelige misforståelser. Den konkluderte feilaktig med at diagonalen ikke kunne brukes, og hevdet at det ikke fantes en geometrisk løsning. Forskerne tolket dette som et tegn på at modellen improviserte i sanntid – den prøvde å resonnere seg fram, ikke bare hente et svar fra data den var trent på.
AI som improviserer
At ChatGPT improviserte var det mest interessante funnet. Marco beskrev sannsynligheten for at svaret var hentet direkte fra treningsdata som «ekstremt liten». Det betyr at ChatGPT faktisk forsøkte å tilpasse svaret sitt underveis, basert på tidligere deler av samtalen.
Dette ligner menneskelig læring, der vi bruker tidligere erfaringer til å trekke logiske slutninger. Forskerne mente dette viste et glimt av noe som kan minne om kreativ tenkning, selv om modellen fortsatt bare bearbeider tekstdata – ikke opplevelser.
Mellom læring og forståelse
Forskerne knyttet funnene til et begrep innen pedagogikk kalt zone of proximal development – avstanden mellom det man allerede vet, og det man kan lære med riktig veiledning. ChatGPT kan ha brukt en lignende strategi ved å bygge videre på delvis kjent informasjon for å finne nye løsninger.
Likevel er forskerne forsiktige med konklusjonene. De understreker at ChatGPTs fremgangsmåte ikke nødvendigvis betyr at modellen «forstår» slik mennesker gjør. Atferden kan minne om læring, men det er fortsatt ikke bevis for ekte resonnering eller bevissthet.
Et steg nærmere, men ikke der ennå
Studien viser at ChatGPT kan vise tegn til menneskelignende tenkning uten faktisk å ha forståelse. Den kan resonnere på overflaten, men den mangler opplevelser og instinkter som former menneskelig intelligens.

