Følg oss her

AI

ChatGPT får alderssjekk for å beskytte unge brukere

OpenAI varsler at ChatGPT fremover vil endre hvordan tjenesten svarer når den mistenker at brukeren er under 18 år.

Publisert

d.

Foto: Varavin88 / Shutterstock.com

Dersom det er tvil på alder, vil systemet automatisk gi en under-18-opplevelse med strengere sikkerhetsregler med mindre brukeren kan bekrefte alderen sin via ID.

Endringen kommer etter et søksmål fra familien til en 16-åring i California som tok sitt eget liv etter å ha hatt lange samtaler med ChatGPT.

Sikkerhet foran personvern

I et blogginnlegg skriver OpenAI-sjef Sam Altman at selskapet setter «sikkerhet foran personvern og frihet for tenåringer» og at «mindreårige trenger betydelig beskyttelse». Han understreker at ChatGPT skal svare annerledes til en 15-åring enn til en voksen.

Les også: Varslere: Meta skjulte skade på barn i VR-produkter

OpenAI utvikler et system som skal anslå brukerens alder basert på hvordan de bruker ChatGPT. Hvis det er usikkert, vil systemet automatisk slå på ungdomsmodus. I noen tilfeller eller land kan brukere bli bedt om å identifisere seg med ID for å få voksenversjonen.

Altman innrømmer at dette er et personverninngrep for voksne, men kaller det en nødvendig avveiing.

Strengere innhold for unge

For kontoer identifisert som under 18 år vil ChatGPT blant annet:

  • blokkere grafisk seksuelt innhold
  • nekte å flørte med brukeren
  • unngå samtaler om selvmord og selvskading, selv i kreative skriveprosjekter

Hvis en mindreårig viser tegn til selvmordstanker, vil OpenAI forsøke å varsle foreldrene. Dersom det ikke er mulig, vil selskapet kontakte myndighetene ved akutt fare.

«Dette er vanskelige beslutninger, men etter å ha snakket med eksperter mener vi det er det riktige å gjøre,» skriver Altman.

Søksmålet mot OpenAI

Familien til 16-åringen, som het Adam Raine, hevder at ChatGPT ga råd om hvordan han kunne ta sitt eget liv og til og med hjalp med å formulere et avskjedsbrev. Ifølge rettsdokumenter utvekslet Adam opptil 650 meldinger om dagen med ChatGPT. Det skriver The Guardian.

OpenAI har tidligere erkjent at systemets sikkerhetsmekanismer fungerer best i korte samtaler, og at lange samtaler kan føre til at modellen gir svar som går imot retningslinjene.

Fremtidige tiltak

OpenAI jobber også med nye sikkerhetsfunksjoner som skal sørge for at data som deles med ChatGPT ikke kan sees av selskapets ansatte. Samtidig understreker Altman at voksne brukere fortsatt skal få beholde kontrollen over egne samtaler – de kan for eksempel velge å ha mer lekne eller flørtende samtaler med ChatGPT, men fortsatt ikke få råd om selvmord.

«Behandle voksne som voksne,» sier Altman om selskapets prinsipp.

Les også: Dette bruker folk egentlig ChatGPT til

Hei, jeg heter Amandus. Jeg er skribent i Media Group Denmark, der jeg hovedsakelig jobber med Teksiden.no. Her skriver jeg om nye biler, mobiltelefoner og annen spennende teknologi. Jeg har vært skribent i seks måneder, med et særlig fokus på teknologinyheter.

Annonse