Nyheter
Gigatabbe for OpenAI: Ny sikkerhetssmell rammer brukere
Nok en gang er data på avveie
OpenAI bekrefter at brukerdata har havnet på avveie etter et sikkerhetsbrudd hos webanalyse-verktøyet Mixpanel. Hendelsen rammet plattformen for API-brukere, ikke ChatGPT direkte.
Dette ble lekket
Ifølge OpenAI ble følgende informasjon eksponert:
- Navn lagt inn på API-kontoer
- E-postadresser tilknyttet API-kontoer
- Grov lokasjonsdata basert på IP
- Nettleser- og operativsysteminformasjon
- Organisasjonsnavn og bruker-ID-er
Ingen ChatGPT-samtaler, betalingsinformasjon, passord, API-nøkler eller identitetsdokumenter er lekket.
Bruddet skjedde hos Mixpanel, men rammer OpenAIs brukere
Mixpanel ble angrepet 9. november, og angriperen eksporterte et datasett med kundeinformasjon. 25. november informerte de OpenAI om hva som faktisk var berørt. OpenAI har nå stanset all integrasjon med Mixpanel mens saken undersøkes videre.
Økt risiko for phishing og sosial manipulering
OpenAI ber brukerne være ekstra oppmerksomme på:
- falske e-poster
- forsøk på sosial manipulering
- målrettede svindelforsøk
Data som navn, e-post og lokasjon kan gjøre slike angrep betydelig mer treffsikre.
Nok et varsku om AI-sikkerhet
Selv om dette ikke var et direkte innbrudd i OpenAIs systemer, er hendelsen likevel bekymringsverdig. OpenAI håndterer store mengder informasjon som brukere deler i tillit – alt fra personlige samtaler til bedriftsdata.
Bruddet føyer seg inn i en rekke hendelser som setter søkelys på sikkerhetsnivået i en bransje hvor stadig mer sensitiv informasjon flyter gjennom skybaserte tjenester.
Hva bør brukere gjøre?
- Aktivér totrinnsverifisering (MFA)
- Vurder om du bør bruke alias-eposter på nye tjenester
- Følg med på mistenkelige innlogginger eller varsler
OpenAI sier selv at åpenhet er viktig, men for mange brukere vil denne hendelsen neppe styrke tilliten.

