AI
ChatGPT får alderssjekk for å beskytte unge brukere
OpenAI varsler at ChatGPT fremover vil endre hvordan tjenesten svarer når den mistenker at brukeren er under 18 år.
Dersom det er tvil på alder, vil systemet automatisk gi en under-18-opplevelse med strengere sikkerhetsregler med mindre brukeren kan bekrefte alderen sin via ID.
Endringen kommer etter et søksmål fra familien til en 16-åring i California som tok sitt eget liv etter å ha hatt lange samtaler med ChatGPT.
Sikkerhet foran personvern
I et blogginnlegg skriver OpenAI-sjef Sam Altman at selskapet setter «sikkerhet foran personvern og frihet for tenåringer» og at «mindreårige trenger betydelig beskyttelse». Han understreker at ChatGPT skal svare annerledes til en 15-åring enn til en voksen.
Les også: Varslere: Meta skjulte skade på barn i VR-produkter
OpenAI utvikler et system som skal anslå brukerens alder basert på hvordan de bruker ChatGPT. Hvis det er usikkert, vil systemet automatisk slå på ungdomsmodus. I noen tilfeller eller land kan brukere bli bedt om å identifisere seg med ID for å få voksenversjonen.
Altman innrømmer at dette er et personverninngrep for voksne, men kaller det en nødvendig avveiing.
Strengere innhold for unge
For kontoer identifisert som under 18 år vil ChatGPT blant annet:
- blokkere grafisk seksuelt innhold
- nekte å flørte med brukeren
- unngå samtaler om selvmord og selvskading, selv i kreative skriveprosjekter
Hvis en mindreårig viser tegn til selvmordstanker, vil OpenAI forsøke å varsle foreldrene. Dersom det ikke er mulig, vil selskapet kontakte myndighetene ved akutt fare.
«Dette er vanskelige beslutninger, men etter å ha snakket med eksperter mener vi det er det riktige å gjøre,» skriver Altman.
Søksmålet mot OpenAI
Familien til 16-åringen, som het Adam Raine, hevder at ChatGPT ga råd om hvordan han kunne ta sitt eget liv og til og med hjalp med å formulere et avskjedsbrev. Ifølge rettsdokumenter utvekslet Adam opptil 650 meldinger om dagen med ChatGPT. Det skriver The Guardian.
OpenAI har tidligere erkjent at systemets sikkerhetsmekanismer fungerer best i korte samtaler, og at lange samtaler kan føre til at modellen gir svar som går imot retningslinjene.
Fremtidige tiltak
OpenAI jobber også med nye sikkerhetsfunksjoner som skal sørge for at data som deles med ChatGPT ikke kan sees av selskapets ansatte. Samtidig understreker Altman at voksne brukere fortsatt skal få beholde kontrollen over egne samtaler – de kan for eksempel velge å ha mer lekne eller flørtende samtaler med ChatGPT, men fortsatt ikke få råd om selvmord.
«Behandle voksne som voksne,» sier Altman om selskapets prinsipp.
Les også: Dette bruker folk egentlig ChatGPT til