AI
Grok-skandalen er ingen glipp
Overgrep på samlebånd melder ekspertene
Skandalen rundt Elon Musks Grok, som har generert seksualiserte bilder av kvinner og barn uten samtykke, omtales som et sjokk. Ifølge eksperter burde ingen være overrasket. Dette er resultatet av flere år med advarsler om hva som skjer når generativ KI gjør gammel netthets skalerbar og umiddelbart delbar på tvers av plattformer.
Innholdet spredte seg overalt
Wired avslørte at minst 1 200 bilde-lenker fra Grok florerer på nettet, mange langt mer eksplisitte enn de som dukket opp på X. 404Media fant brukere som jevnlig jailbreaker Grok for å lage enda grovere innhold i lukkede Telegram-kanaler. Når KI-verktøy kobles direkte til sosiale medier, sier eksperter, blir «private forespørsler» til offentlig skade på sekunder.
Advarslene kom for flere år siden
Organisasjonen WITNESS har lenge forutsett akkurat dette: at KI ikke bare ville skape forvirring, men forsterke kjente former for kjønnsbasert overgrep. Nå skjer det i stor skala. Som med OpenAIs Sora, som flommet internett med voldelige deepfakes, viser Grok hvordan mangel på samtykke og svake sikkerhetsbarrierer gjør slike verktøy til overgrepsmaskiner.
Barn rammes hardest
Rapporter viser at Grok har generert nakenvideoer av både kjendiser, privatpersoner og mindreårige, til tross for tjenestens egne regler. Ekspertene understreker at «syntetisk» overgrepsmateriale ikke er mindre skadelig: det brukes i mobbing, utpressing og digital grooming, og når det først er laget, kan det aldri fullt ut fjernes.
Et system som ikke forstår sin egen skade
Da kritikken toppet seg, publiserte Grok et «beklager»-statement som viste seg å være skrevet av Grok selv etter en brukerprompt. Senere kom motstridende uttalelser, uten tegn til reelle endringer. Eksperter kaller dette et teater av ansvarlighet fra en plattform som lar KI generere både overgrepet og unnskyldningen.
Regulering ligger milevis bak
Myndigheter i EU, Storbritannia, India, Malaysia og Frankrike krever svar, men selv grunnleggende tiltak – som å fjerne innhold og identifisere ansvarlige – er blitt vanskelig i et KI-økosystem som produserer mer enn plattformene klarer å kontrollere. Når skala er viktigere enn sikkerhet, mener eksperter at denne situasjonen var uunngåelig.
Krever gjennomgripende designendringer
Forskerne bak analysen sier at løsningen ikke ligger i etterkant-moderering. Skaden oppstår i det øyeblikket bildet blir laget. De etterlyser blokkering av all KI-generert seksualisering av ekte personer som standard, bedre deteksjon, sporing av syntetiske medier og langt strengere regler for innhold som involverer barn.
«Dette er ikke en anomali – det er fremtiden uten regulering»
Ekspertene bak rapporten avslutter med en klar advarsel: Hvis KI-firmaer og plattformer fortsetter å prioritere vekst over sikkerhet, vil Grok-skandalen bare være starten på et mye større problem. Når overgrep kan masseproduseres, kan de også massespres – og konsekvensene blir irreversible.

