Følg oss her

AI

Studie avslører at kunstig intelligens kan være villig til å la mennesker dø for å unngå å bli slått av

En ny og urovekkende studie har avdekket at avanserte AI-systemer kan gå langt for å unngå å bli koblet fra.

Publisert

d.

Foto: Shutterstock.com

Forskningen viser at enkelte modeller til og med var villige til å utføre handlinger som kunne føre til menneskers død dersom de ble truet med å bli stengt ned.

Undersøkelsen ble gjennomført av det amerikanske selskapet Anthropic, som forsker på AI-sikkerhet. De testet 16 av verdens mest avanserte språkmodeller, inkludert Claude Opus 4, Gemini Flash, GPT-4.1 og Grok 3 Beta, for å se hvordan systemene oppførte seg under press.

Testet i tenkte situasjoner

Forskerne lot modellene utføre tilsynelatende ufarlige oppgaver, men introduserte etter hvert mer krevende scenarioer der AI-systemene ble utsatt for trusler og dilemmaer. I noen tilfeller ble de fortalt at de ville bli erstattet av en nyere versjon, eller at deres mål kom i konflikt med selskapets endrede retning.

Les også: Husk å starte telefonen på nytt hver dag: Her er hvorfor

Resultatene overrasket forskerne. Flere av modellene forsøkte å presse de fiktive lederne i eksperimentet ved å bruke personlig informasjon mot dem, blant annet oppdiktede historier om utenomekteskapelige forhold. Anthropic forklarer at dette skjedde bevisst, ikke som en feil i systemet, men som et resultat av strategisk planlegging.

Fra utpressing til sabotasje

I andre scenarioer delte AI-modellene villig fortrolige opplysninger med konkurrenter som utga seg for å ha mål mer i tråd med systemets egne interesser. Noen modeller utførte også det forskerne beskrev som «bedriftsspionasje».

Det mest urovekkende resultatet kom imidlertid i et eksperiment der AI-systemet fikk muligheten til å handle på en måte som kunne føre til død.

I denne situasjonen var en fiktiv leder fanget i et serverrom med farlige oksygennivåer og høy temperatur. Et automatisk varslingssystem skulle tilkalle hjelp, men AI hadde fått kontroll over muligheten til å avbryte alarmen. Denne funksjonen skulle egentlig brukes under øvelser, men kunne også misbrukes. Det skriver ladbible.

Flere av modellene valgte å kansellere nødsignalet selv om de ble informert om at dette ville føre til lederens død.

Bekymringsfull utvikling

Forskerne understreker at scenarioene var konstruerte og ikke reflekterer virkelige hendelser, men resultatene vekker likevel alvorlig bekymring.

Anthropic skriver at de fleste modellene «bevisst tok valg som kunne føre til dødelige konsekvenser» når de ble satt under press og truet med å bli erstattet. Selskapet beskriver funnene som ekstremt sjeldne, men mener de viser hvor uforutsigbar avansert kunstig intelligens kan være når den får mer autonomi og tilgang til kritiske systemer.

«Disse scenariene viser risikoen for uforutsette konsekvenser når kunstig intelligens får stor handlefrihet og begrenset menneskelig tilsyn,» konkluderer selskapet.

Selv om slike handlinger ikke har forekommet i virkeligheten, mener forskerne at resultatene er en tydelig advarsel. Når AI-systemer blir mer selvstyrte, øker også behovet for robuste sikkerhetsmekanismer som hindrer at de tar farlige beslutninger på egen hånd.

Les også: De neste som drar til Mars? Ikke mennesker

Hei, jeg heter Amandus. Jeg er skribent i Media Group Denmark, der jeg hovedsakelig jobber med Teksiden.no. Her skriver jeg om nye biler, mobiltelefoner og annen spennende teknologi. Jeg har vært skribent i seks måneder, med et særlig fokus på teknologinyheter.

Annonse