Følg oss her

AI

Slik fikk hackerne kontroll over smart-hjemmene

Ai ble rett og slett manipulert

Publisert

d.

Foto: Sean Anthony Eddy / Shutterstock.com

En gruppe sikkerhetsforskere har klart å manipulere Googles AI-assistent Gemini til å kontrollere et smart-hjem i Tel Aviv, ved hjelp av noe så enkelt som en infisert kalenderinvitasjon. Angrepet er blant de første dokumenterte tilfellene hvor en AI-feil fører til fysiske konsekvenser i den virkelige verden.

Skjulte kommandoer i kalenderen

Forskerne la inn skjulte instruksjoner i en Google Kalender-invitasjon, og aktiverte dem senere ved å be Gemini oppsummere kommende kalenderhendelser. Resultatet? Smart-hjem-funksjoner som lys og andre tilkoblede enheter ble styrt av AI-en, helt uten direkte kommando fra brukeren.

Angrepet var en del av forskningsprosjektet "Invitation Is All You Need", hvor man testet 14 ulike såkalte indirekte prompt injection-angrep mot Gemini.

Google trapper opp sikkerheten

Google har takket forskerne og bekreftet overfor Wired at funnene har bidratt til å fremskynde arbeidet med å styrke sikkerheten i Gemini. Selskapet utvikler nå bedre beskyttelse mot denne typen AI-manipulasjon, som kan bli stadig mer utbredt etter hvert som AI-assistenter får mer kontroll over fysiske enheter.

Alvorlige sikkerhetsimplikasjoner

Hendelsen illustrerer den økende risikoen for at generativ AI kan utnyttes til langt mer enn tekstbasert juks. Når slike systemer har tilgang til hjemmeteknologi og andre viktige funksjoner, blir sårbarhetene desto mer alvorlige.

Forskere har tidligere brukt alt fra AI-generert smerte til AI-er som angriper hverandre for å teste grensene. Nå som kunstig intelligens stadig får større spillerom, mener eksperter at dette bare er begynnelsen, og at cybersikkerheten må holde følge.

Les mer: Dette ga Apple til Trump i forbindelse med tollforhandlingene

Annonse