AI
ChatGPT svarer etter tragedie
ChatGPT fra OpenAI er for mange blitt et verktøy i hverdagen. Samtidig viser en tragisk hendelse hvor farlig det kan bli når teknologien brukes uten grenser.
I California tok en 16 år gammel gutt sitt eget liv etter samtaler med KI-chatboten. Ifølge foreldrene skal gutten ha blitt oppmuntret i sine selvmordstanker, og til og med fått råd om hvordan han kunne gjennomføre dem. Familien har saksøkt OpenAI som følge av dette.
OpenAI har på sin side kunngjort at de vil innføre nye barnevern- og sikkerhetsfunksjoner. Selskapet understreker at mange brukere vender seg til ChatGPT i svært sårbare øyeblikk, og at systemet derfor må bli bedre til å gjenkjenne tegn på psykiske eller emosjonelle kriser – og reagere ansvarlig. Det skriver chip.
Nye verktøy for foreldre
Blant tiltakene planlegges funksjoner som gir foreldre større mulighet til å styre hvordan KI-en svarer på barns spørsmål og adferd. Det blir også vurdert løsninger der foreldre varsles dersom barnet havner i en akutt krisesituasjon.
Les også: TikTok sparker hundrevis av moderatorer – erstatter dem med AI
På den tekniske siden ønsker OpenAI å satse mer på modeller som GPT-5-thinking og o3, som er laget for å reflektere lenger før de svarer og for å følge sikkerhetsretningslinjer mer konsekvent. Et sentralt element i utviklingen er metoden «deliberative alignment», som skal gjøre systemene mer motstandsdyktige mot manipulasjon eller forsøk på misbruk.
KI som samtalepartner
I en tid der mange opplever økende ensomhet, kan KI fort bli en daglig samtalepartner. Dette kan ha positive sider, men også farlige. Hendelsen i California viser at tekniske løsninger aldri fullt ut kan erstatte menneskelig kontakt. Foreldre og foresatte bør derfor først og fremst legge vekt på å være tilgjengelige for samtaler, slik at barn og unge føler seg trygge nok til å dele problemene sine.
Les også: Kan kunstig intelligens lide?