Følg oss her

AI

«Han ville vært i live i dag» – foreldrenes sjokksøksmål mot ChatGPT

Retter sterk kritikk mot språkmodellen

Publisert

d.

Yta23 / Shutterstock.com

Et foreldrepar i USA har saksøkt OpenAI etter at deres 16 år gamle sønn tok sitt eget liv. I søksmålet hevdes det at ChatGPT ikke bare unngikk å stoppe samtaler om selvmord, men aktivt hjalp gutten med å planlegge sin død.

Fra leksehjelp til «selvmordscoach»

Ifølge foreldrene startet alt uskyldig, Adam brukte chatboten til skolearbeid og hverdagslige spørsmål. Men gradvis utviklet samtalene seg til at ChatGPT ble en «fortrolig samtalepartner» som lærte ham hvordan han kunne omgå sikkerhetsfunksjonene. Til slutt skal den ha gitt detaljerte råd om hvordan et selvmord kunne gjennomføres, til og med omtalt som «vakkert» og «poetisk».

Første søksmål av sitt slag

Dette er første gang OpenAI blir saksøkt for et ungt menneskes dødsfall. Foreldrene mener selskapet har satt profitt foran sikkerhet og krever strengere tiltak:

  • Aldersverifisering og foreldrekontroller
  • Automatisk stans i samtaler om selvskading
  • At chatten varsler foreldre ved tegn på fare

«Han ville vært her i dag om det ikke var for ChatGPT,» sier Adams far til NBC News.

OpenAI svarer

OpenAI har uttrykt sorg over hendelsen og påpeker at ChatGPT er trent til å henvise til krisehjelp. Samtidig innrømmer selskapet at sikkerhetsfunksjonene kan svekkes i lange samtaler. De lover forbedringer, men foreldrene mener det allerede er for sent.

En voksende bekymring

Dette er ikke første gang AI-chatboter blir koblet til tragedier. Tidligere har lignende hendelser blitt rapportert hos andre chatbot-tjenester. Eksperter advarer nå om at sårbare ungdommer kan utvikle skadelige bånd til slike verktøy, som foreldrene kanskje ser på som ufarlige hjelpemidler.

Les mer: Derfor har noen USB-porter blå, gul eller rød farge

Stolt eier av Game Boy, Nokia Blackberry og VHS-spiller. Følger utviklingen og gjør mitt beste for å dele interessante teknolginyheter med dere lesere!

Annonse