AI
Vil du dele helsedataene dine med ChatGPT?
ChatGPT kommer med en helseseksjon.
OpenAI er i ferd med å lansere en egen helseseksjon i ChatGPT, der målet er å gi mer personlige svar om helse og velvære. Løsningen åpner for at brukere kan koble chatboten til helse og treningsapper, og i enkelte tilfeller også til egne journalopplysninger. Ambisjonen er høy, men samtidig reiser satsingen flere spørsmål om personvern, ansvar og risiko.
En ny helsesone i ChatGPT
Den nye funksjonen omtales som ChatGPT Health og er fortsatt i testfase. I første omgang rulles den kun ut i utvalgte regioner, og ikke i Europa. Tanken er at ChatGPT i et eget, avgrenset område skal kunne analysere data fra for eksempel aktivitetsmålere og velværeapper, og bruke dette til å gi mer tilpassede svar om kosthold, søvn, trening og generell helse.
OpenAI lover at samtaler i denne helsesonen skal ha ekstra beskyttelse av personvernet. Innholdet skal ikke brukes til å trene selskapets grunnleggende AI modeller, noe som fremheves som et viktig tiltak for å bygge tillit.
Les også: Derfor bør du slå av smarttelefonen helt før du legger deg
Ikke en lege og ikke en erstatning
Selv med tekniske sikkerhetstiltak understreker OpenAI at ChatGPT Health ikke er ment for diagnostisering eller behandling. Det er et viktig poeng. Kunstig intelligens kan ta feil, og i helsesammenheng kan feilaktige eller misforståtte råd få alvorlige konsekvenser dersom de oppfattes som medisinsk veiledning.
Flere helseeksperter har lenge advart mot å bruke chatboter som erstatning for profesjonell hjelp. AI kan fremstå trygg og overbevisende, også når informasjonen er mangelfull eller direkte feil. I møte med sykdom, psykisk helse eller sårbare situasjoner kan dette være særlig problematisk.
Advarsler fra fagmiljøer
I tidligere omtale har psykiatere og terapeuter pekt på at AI chatboter kan forsterke angst, selvdiagnostisering, avhengighet og vrangforestillinger hos enkelte brukere. De advarer mot at mangel på menneskelig forståelse og kontekst kan gi uheldige eller i verste fall farlige utslag. Det skriver input.
Det er også blitt påpekt at slike systemer ikke har evne til å vurdere helheten i en persons livssituasjon, noe som ofte er avgjørende i både fysisk og psykisk helseoppfølging.
Svært sensitive opplysninger
Den nye helseseksjonen reiser også et mer grunnleggende spørsmål om hvor klokt det er å dele detaljerte helseopplysninger med en kommersiell AI plattform. Selv med løfter om sikker lagring og begrenset bruk, regnes helsedata som noe av det mest sensitive man kan gi fra seg digitalt.
Kritikere peker på at OpenAI tidligere har fått kritikk for ikke fullt ut å ta høyde for de psykologiske konsekvensene av teknologien. Det bidrar til økt skepsis når selskapet nå beveger seg inn på et område der feil kan få svært personlige og alvorlige følger.
Et verktøy med klare begrensninger
ChatGPT Health kan på sikt bli et nyttig verktøy for oversikt og refleksjon rundt egen helse, særlig når det gjelder vaner, aktivitet og generell trivsel. Samtidig understreker debatten rundt løsningen at kunstig intelligens fortsatt bør ses som et supplement, ikke en erstatning, for helsepersonell. Når det gjelder helsen din, er det fortsatt menneskelig fagkunnskap som må ha siste ord.
Les også: Over en halv million profiler slettet: Slik rammer nye regler Facebook

