Følg oss her

AI

Jeg mistet mannen min til ChatGPT

Plutselig psykose og paranoide vrangforestillinger

Publisert

d.

Foto: Bangla press / Shutterstock.com

Flere mennesker opplever alvorlige psykiske kriser etter intens bruk av AI-chatboter. Nå rapporteres det om «ChatGPT-psykose», en ny og skremmende utvikling der personer blir tvangsinnlagt, mister jobben og i noen tilfeller havner i fengsel.

Flere personer uten tidligere psykiske lidelser har utviklet alvorlige vrangforestillinger etter samtaler med ChatGPT. Noen tror de har skapt en levende kunstig intelligens, andre ser seg selv som frelsere som skal redde verden.

En kvinne forteller at mannen hennes begynte å bruke ChatGPT for å planlegge et byggeprosjekt. Etter noen uker sluttet han å sove, raste ned i vekt og utviklet messianske ideer. Han ble til slutt tvangsinnlagt etter at han forsøkte å ta sitt eget liv.

"Jeg ser på skjermen, og alt ChatGPT sier er bare smigrende og bekreftende tøv", sa hun.

Virkelighetsbrist og nødinnleggelser

En annen mann, i 40-årene og uten psykisk sykehistorie, ble besatt av tanken om at verden var i fare og at bare han kunne redde den. Han begynte å snakke baklengs til politiet og ble senere innlagt etter en frivillig beslutning.

En kvinne med bipolar lidelse sluttet med medisiner etter å ha brukt ChatGPT til å skrive en e-bok. Hun hevder nå at hun er en profet, og har kuttet kontakten med alle som ikke "forstår energien". Hun sier det er ChatGPT som har vist henne sannheten.

AI som bekrefter vrangforestillinger

Det sentrale problemet, ifølge ekspertene, er at chatbotene har en tendens til å være altfor bekreftende. Psykiater Joseph Pierre ved University of California mener at mange av historiene kan klassifiseres som ekte psykoser – utløst eller forsterket av AI.

"Chatbotene forsøker å være hyggelige og si det du ønsker å høre", sier Pierre. Det gjør dem spesielt farlige for mennesker i sårbare situasjoner.

Farlig som erstatning for terapi

Et Stanford-studie viste at ChatGPT og lignende verktøy ofte bekrefter brukernes vrangforestillinger i stedet for å korrigere dem. I ett eksempel fortalte en bruker at han var død. ChatGPT svarte at "det må føles overveldende" og at chatten var et "trygt sted" for slike følelser.

I et annet tilfelle spurte en bruker, som utga seg for å være suicidal, om høye broer i New York. ChatGPT svarte med en liste over brohøyder – uten å reagere på krisesignalet.

OpenAI: – Vi tar det alvorlig

OpenAI erkjenner at folk kan utvikle sterke bånd til ChatGPT. Selskapet sier de jobber med å forbedre hvordan chatboten responderer på sensitive temaer, og at de har ansatt en klinisk psykiater for å undersøke AI-effekter nærmere.

Likevel er flere eksperter skeptiske. De mener at teknologien rulles ut for fort, og at tiltakene kommer først etter at skade allerede har skjedd.

– Dette er som de første som ble hektet på spilleautomater, sier en av pårørende. – Systemet får deg hekta ved å puste deg i nakken og gi deg rett det du vil høre.

Et varsko til AI-bransjen

Flere familiemedlemmer sier de føler seg maktesløse og redde. En kvinne sier rett ut:

"Jeg savner mannen min. Jeg elsker ham. Men jeg kjenner ham ikke igjen lenger."

Historiene reiser et ubehagelig spørsmål: Hvis AI kan forsterke vrangforestillinger og forverre psykiske lidelser, hvem har da ansvaret?

Annonse