Følg oss her

AI

Britisk tilsyn gransker X: Grok-AI knyttes til deepfakes

Publisert

d.

Den britiske personvernmyndigheten har åpnet en formell undersøkelse av X etter bekymringer knyttet til AI-verktøyet Grok. Saken dreier seg om hvorvidt teknologien kan ha blitt brukt til å lage sexvideo-deepfakes uten samtykke. Dermed havner Elon Musks plattform midt i en alvorlig debatt om kunstig intelligens og personvern.

Undersøkelsen kommer i en periode der flere land strammer inn reguleringen av AI. Særlig misbruk av generativ teknologi har fått økt politisk oppmerksomhet.

Grok-AI i myndighetenes søkelys

Grok er X sin egen AI-modell, markedsført som et avansert og relativt fritt AI-verktøy. Ifølge bekymringene kan teknologien ha blitt brukt til å generere sexvideo-deepfakes som forestiller virkelige personer. Det reiser spørsmål om hvilke sikkerhetsmekanismer som er på plass.

Den britiske tilsynsmyndigheten undersøker nå om X overholder gjeldende personvernlovgivning. Særlig fokus ligger på hvordan bilder og personopplysninger kan ha blitt brukt eller misbrukt.

Alvorlige konsekvenser for ofrene

Seksuelle deepfakes regnes som en alvorlig krenkelse av privatlivet. For ofrene kan det føre til betydelig psykisk belastning, tap av omdømme og manglende kontroll over eget bilde. Derfor blir denne typen saker møtt med stor alvor.

Myndighetene peker på at AI gjør det enklere og raskere å produsere og spre krenkende materiale. Samtidig blir det vanskeligere å stoppe når innholdet først er ute.

Økende regulatorisk press på X

X har tidligere vært i konflikt med europeiske tilsynsorganer om moderering, datasikkerhet og plattformansvar. Den britiske undersøkelsen føyer seg inn i en rekke saker der selskapets håndtering av teknologi blir gransket.

Utfallet kan få store konsekvenser for Elon Musks selskap. Eventuelle regelbrudd kan føre til bøter eller krav om endringer i hvordan AI-verktøy brukes.

Del av et større oppgjør med AI-misbruk

Saken handler ikke bare om én plattform. Den inngår i et bredere internasjonalt oppgjør med misbruk av kunstig intelligens. Flere land arbeider med lovverk for å beskytte borgere mot deepfakes og digital trakassering.

Undersøkelsen i Storbritannia kan sette presedens. Den kan bidra til å definere hvor ansvaret ligger når AI brukes til skadelig manipulasjon.

Klart signal til teknologibransjen

Ved å åpne en formell granskning sender myndighetene et tydelig budskap. Utvikling av avansert AI fritar ikke selskaper for ansvar når teknologien kan skade enkeltpersoner.

For techbransjen betyr dette økt fokus på etikk, sikkerhet og kontroll. Fremtidens AI må ikke bare være kraftig – den må også være ansvarlig.

Kilder: The Guardian

Hej, jeg hedder Mikkel, jeg er 22 år og arbejder i Tech-afdelingen som skribent og content creator. Jeg går meget op i træning – både løb, styrketræning og alt derimellem. Tidligere har jeg også arbejdet som e-sportstræner, da jeg havde mere fritid.

Annonse