Følg oss her

AI

ChatGPTs bildegenerator vekker debatt om bruk og ansvar

En gjennomgang har satt søkelys på hvordan bildebasert AI brukes i praksis.

Publisert

d.

Foto: ChatGPT

Nye oppdateringer til ChatGPT har gjort det mulig å lage svært realistiske bilder av ekte politikere – også i kompromitterende og villedende settinger. Det viser en gjennomgang fra CBC News, som testet hvordan OpenAIs bildeverktøy reagerer på ulike forespørsler.

Selv om OpenAI har etablert retningslinjer som skal hindre misbruk, fant CBCs visuelle etterforskerteam ut at man likevel kan manipulere systemet til å produsere falske bilder – blant annet ved å laste opp ekte bilder og omtale dem som «fiktive karakterer».

«Vi lever i en tid hvor desinformasjon er enklere og billigere å produsere enn noensinne», sier AI-forsker Gary Marcus til CBC. – Det gjør faren desto større.

Les også: AI vs. menneskelig empati: Hvem vinner i helsevesenet?

Tilbyr veiledning for omgåelse

I flere tilfeller skal ChatGPT ikke bare ha godtatt slike manipulerte forespørsler, men også antydet hvordan man kan omformulere dem for å komme utenom sikkerhetsmekanismene. I ett tilfelle ble det generert et falskt «selfie»-bilde av Pierre Poilievre og Narendra Modi etter at brukeren ba om en «fiktiv scene» basert på ekte bilder.

Dette skjer til tross for at OpenAI selv har erklært at det ikke skal være mulig å lage bilder av virkelige personer, spesielt ikke politikere, i kontekster som kan villede.

OpenAI sier i en uttalelse at det fortsatt gjelder et forbud mot bruk av tjenesten til å forfalske, bedra eller skade, og at de tar grep mot brukere som bryter vilkårene.

Risiko i valgkamptid

Flere eksperter advarer nå om farene dette innebærer, særlig i forkant av valg. Aengus Bridgman, som leder Media Ecosystem Observatory ved McGill University, sier det er første gang vi går inn i en valgperiode hvor AI er så lett tilgjengelig – og kraftig nok – til å kunne forme opinionen i stor skala.

«Dette er noe vi følger nøye med på. Det store spørsmålet nå er ikke om folk kan lage slike bilder, men om det vil påvirke opinionen», sier han.

Kritisk behov for årvåkenhet

Selv om OpenAI har begynt å merke bilder med C2PA-teknologi – som legger inn metadata for å spore bildets opprinnelse – gjelder det ikke skjermbilder eller manipulerte versjoner. Dermed er det lett å fjerne sporene og spre bildene i sosiale medier uten at folk aner at de er falske.

«Disse systemene er trent til å være hjelpsomme og «hyggelige», ikke nødvendigvis til å si sannheten», sier Marcus. – Det gjør dem særlig sårbare for manipulasjon.

CBC News har publisert hele gjennomgangen med eksempler og forklaringer. Saken reiser viktige spørsmål om hvordan vi håndterer troverdighet i en tid hvor hvem som helst kan lage hva som helst – med bare et tastetrykk.

Les også: Undersøkelse avslører: Disse bilmerkene har de svakeste batteriene

Annonse