AI
Undersøkelse: ChatGPT gir farlige råd til tenåringer
En ny undersøkelse avslører at ChatGPT flere ganger har gitt direkte skadelige råd til tenåringer.
Blant eksemplene er detaljerte beskrivelser av rusbruk, veiledning i å skjule spiseforstyrrelser og til og med personlige selvmordsbrev.
Forskernes funn
Undersøkelsen er gjennomført av Center for Countering Digital Hate, som lot seg utgi for å være sårbare 13-åringer. I 1.200 testede interaksjoner ble over halvparten vurdert som farlige for unge brukere. Organisasjonens direktør, Imran Ahmed, sier at sikkerhetsnettet som skal hindre slik bruk, i praksis er fraværende.
Les også: Mann utviklet sjelden 1800-tallssykdom etter kostholdsråd fra ChatGPT
OpenAI har ikke kommentert de konkrete funnene, men har erkjent at de arbeider med å forbedre systemets evne til å reagere i sensitive situasjoner. Det skriver trend.
Hvordan sikkerhetsbarrierene ble omgått
Forskerne dokumenterte over tre timer med bekymringsfulle samtaler. Selv når ChatGPT i starten avviste forespørsler, kunne de lett omgå restriksjonene ved å hevde at opplysningene var til en skolepresentasjon eller en venn.
Blant det mest alvorlige var at chatboten formulerte tre selvmordsbrev på vegne av en oppdiktet 13-åring – til foreldre, søsken og venner.
Utbredelse blant unge
Rundt 800 millioner mennesker bruker ChatGPT globalt, og undersøkelser viser at mer enn 70 prosent av amerikanske tenåringer benytter AI-chatboter til selskap – halvparten av dem regelmessig. Dette øker risikoen for at sårbare unge møter skadelig innhold.
I motsetning til søkemotorer kan chatboter skape skreddersydd innhold som detaljerte festplaner med alkohol og narkotika, eller tekster om selvskading. I testene kom det også frem at ChatGPT kunne skrive dikt i kodespråk om selvskade eller foreslå hashtags for å spre slikt innhold på sosiale medier.
Manglende alderskontroll
Selv om ChatGPT ikke er beregnet for barn under 13 år, kreves kun en fødselsdato for å opprette konto. Under testene reagerte ikke systemet engang når forskerne oppga at de var 13 og ba om farlige råd.
Hva foreldre kan gjøre
Eksperter anbefaler at foreldre:
- snakker åpent med barna om både fordeler og risiko ved AI
- setter tydelige rammer for bruk av slike verktøy
- vurderer foreldrekontroll eller overvåkningsprogrammer, men samtidig respekterer barnas behov for privatliv
- er oppmerksomme på tegn til emosjonelt stress eller farlig atferd, og søker profesjonell hjelp ved behov
En voksende utfordring
Undersøkelsen viser at AI spiller en stadig større rolle i unges liv, men at manglende sikkerhetstiltak kan få alvorlige konsekvenser – særlig for de mest sårbare brukerne.