Følg oss her

AI

Advarsel fra eksperter: Dette må du ikke dele med ChatGPT

Kunstig intelligens brukes i stadig større grad både hjemme og på jobb. Men cybersikkerhetseksperter advarer nå mot å dele sensitiv informasjon med språkmodeller som ChatGPT.

Publisert

d.

Foto: Koshiro K / Shutterstock.com

Fristende, men risikabelt

Mange bruker AI-verktøy til å skrive e-poster, oversette dokumenter eller sammenfatte møtereferater. Det kan spare tid, men det reiser også spørsmål om datasikkerhet. Ifølge Hasso Plattner Institute (HPI) kan bruk av ChatGPT til å behandle bedriftsinformasjon i verste fall føre til at konfidensielle data lekkes. Det skriver chip.

"Å bruke ChatGPT til å lage en presentasjon basert på interne økonomidata kan være å regne som brudd på taushetsplikt", uttalte HPI allerede i 2023.

Hvordan dataene brukes

Som standard bruker ChatGPT informasjonen brukerne skriver inn til å forbedre språkmodellen. Det betyr at sensitive opplysninger i teorien kan bli brukt i trening, og dermed bidra til fremtidige svar – selv om det skjer indirekte og anonymt.

Les også: Gratis Android-app som oppdager farlige lenker før du åpner dem

For å deaktivere dette, kan brukere:

  1. Logge inn på ChatGPT
  2. Gå til profilinnstillinger
  3. Åpne «Datakontroller»
  4. Slå av funksjonen for å «forbedre modellen for alle»

Selv med denne funksjonen slått av, anbefaler ekspertene å unngå deling av:

  • Passord
  • Kundedata
  • Regnskap og finansinformasjon
  • Forretningshemmeligheter
  • Helseopplysninger og personfølsom informasjon

Tidligere lekkasjer viser risikoen

En studie fra 2023 utført av forskere fra blant annet OpenAI, Google og flere universiteter viste at det var mulig å trekke ut tidligere brukeres data fra eldre språkmodeller som GPT-2. Selv om dagens modeller er bedre sikret, er det ikke uten risiko å dele sensitiv informasjon med dem.

Anbefalinger fra ekspertene

For å redusere faren for datalekkasjer anbefales følgende:

  • Bruk abstrakte eller anonymiserte eksempler når du tester AI-verktøy
  • Involver IT-avdelingen hvis du vurderer å bruke slike verktøy profesjonelt
  • Deaktiver datadeling i innstillingene før bruk
  • Vær kritisk til hva du deler – også i uformelle sammenhenger

Dette gjelder ikke bare ChatGPT, men også andre AI-verktøy som bruker store språkmodeller. Så lenge man ikke vet hvordan dataene kan bli brukt eller lagret, bør man være forsiktig.

En teknologi i rask utvikling

Bruken av kunstig intelligens vokser raskt, også blant folk uten teknisk bakgrunn. Men det er fortsatt uvisst hvilke konsekvenser utbredt bruk av slike verktøy vil ha på sikt. Derfor oppfordres både enkeltpersoner og virksomheter til å tenke seg nøye om før de lar AI håndtere sensitiv informasjon.

Les også: Dette skjer faktisk hvis du ikke setter telefonen i flymodus før avgang

Annonse