AI
AI-briller kan gjøre kvinner mer utsatt i offentligheten
Bekymringen er særlig knyttet til at brukere potensielt kan identifisere personer de møter i offentligheten og hente frem informasjon om dem via kunstig intelligens.
Planer om å innføre ansiktsgjenkjenning i Metas smartbriller møter kraftig kritikk fra britiske hjelpeorganisasjoner. Flere advarer om at teknologien kan gjøre kvinner og jenter mer utsatt for trakassering, overvåking og vold.
Kan identifisere personer uten samtykke
Ifølge en rapport omtalt av The New York Times vurderer Meta å legge til ansiktsgjenkjenning i sine smartbriller allerede i år.
Teknologien skal ifølge kildene ikke gi full tilgang til hvem som helst, men kan innebære et system der ansikter kobles til offentlige profiler eller kontakter via plattformene Facebook og Instagram.
Det betyr i praksis at en bruker kan rette blikket mot en person og få opp navn eller annen informasjon dersom vedkommende har en offentlig profil.
– En direkte og alvorlig risiko
Organisasjonene Refuge og Women’s Aid reagerer sterkt på planene.
Emma Pickering i Refuge beskriver funksjonen som en «direkte og alvorlig risiko» for overlevende etter vold i nære relasjoner.
Hun peker på at stalking er en utbredt kontrollmetode, og at en funksjon som gjør det enklere å identifisere og lokalisere personer, kan sette utsatte kvinner i fare.
– Det kan også true sikkerheten til alle kvinner og jenter i det offentlige rom, ved at noen får tilgang til identitetsinformasjon uten samtykke, sier hun.
Økende bruk av teknologi i overgrep
Ifølge Refuge har henvisninger til deres team som jobber med teknologirelatert vold økt kraftig det siste året. Bærbar teknologi som klokker, ringer og nå smartbriller blir i økende grad brukt til overvåking og trakassering.
Eksperter advarer også om at kvinner allerede opplever å bli filmet uten samtykke med smartbriller. Slike opptak kan i verste fall misbrukes videre, for eksempel gjennom manipulering eller deling i lukkede nettverk.
Krever sikkerhet som grunnprinsipp
Hjelpeorganisasjonene mener teknologiselskaper må ta høyde for risikoen allerede i utviklingsfasen.
– Vi ser gang på gang hva som skjer når produkter lanseres uten at konsekvensene for kvinners sikkerhet er vurdert grundig, sier Pickering.
Meta har på sin side uttalt at selskapet fortsatt vurderer ulike løsninger og vil ta en «gjennomtenkt tilnærming» før eventuelle funksjoner lanseres.
En bredere teknologidebatt
Debatten om ansiktsgjenkjenning har pågått i flere år, særlig knyttet til personvern og overvåking. At teknologien nå potensielt flyttes til bærbare enheter som brukes i hverdagen, kan gjøre problemstillingen mer akutt.
Om Meta faktisk innfører funksjonen, kan det bli en ny milepæl i diskusjonen om hvordan kunstig intelligens påvirker sikkerhet og privatliv i det offentlige rom.

