AI
Google avslører: Slik gjør hackere AI til et supervåpen
Kunstig intelligens skal gjøre hverdagen enklere. Men nå advarer Google om at den samme teknologien brukes til å gjennomføre mer avanserte og målrettede cyberangrep enn noen gang før.
I en fersk rapport fra Google Threat Intelligence Group beskrives hvordan kriminelle aktører misbruker AI-verktøy, inkludert Google Gemini, for å utføre phishing, overvåking og utvikling av skadevare.
AI gjør rekognosering ekstremt rask
Tidligere måtte hackere bruke tid på å kartlegge sine ofre manuelt. Nå kan AI:
- Skrape nettet for relevant informasjon
- Kartlegge roller og stillinger i selskaper
- Identifisere potensielle angrepspunkter
- Analysere organisasjonsstrukturer
Ifølge Google brukte en aktør kalt «UNC6418» AI til å samle sensitiv informasjon om personer i Ukrainas forsvarssektor som ledd i et phishing-forsøk.
Det som før tok dager eller uker, kan nå gjøres på minutter.
Phishing blir langt mer overbevisende
En av de største endringene handler om språk.
Tradisjonelle svindel-e-poster var ofte enkle å avsløre på grunn av dårlig grammatikk eller åpenbare feil. Med AI kan angripere nå generere:
- Profesjonelle e-poster
- Troverdige jobbtilbud
- Målrettede meldinger basert på mottakerens bakgrunn
- Samtaler som etterligner menneskelig kommunikasjon
Google peker blant annet på aktøren «UNC2970», koblet til Nord-Korea, som brukte AI til å utgi seg for å være rekrutterer for å lure cybersikkerhetseksperter.
Et annet eksempel er phishing-verktøyet «COINBAIT», som ble brukt til å forsøke å stjele kryptovaluta-tilganger.
AI brukes også til å utvikle skadevare
AI-verktøy har innebygde sperrer mot å lage skadelig kode. Likevel har enkelte aktører funnet måter å omgå dette på, blant annet ved å bruke såkalt agentisk AI – systemer som kan utføre komplekse flertrinnsoppgaver med minimal menneskelig styring.
Et eksempel Google trekker frem er skadevaren «HONESTCUE».
Denne fungerte som en bakdør-trojaner og kunne:
- Kontakte AI-tjenester for å hente ny kode
- Laste ned ytterligere skadevare
- Skjule aktivitet og unngå spor på harddisken
Ifølge analysen var HONESTCUE utviklet av relativt uerfarne kodere. Det reiser et alvorlig spørsmål: Hva kan profesjonelle cyberkriminelle få til med samme teknologi?
Foreløpig mest «bevis på konsept»
Google understreker at mange av tilfellene i rapporten foreløpig er eksperimentelle. De har ikke ført til store cyberangrep ennå.
Men utviklingen viser tydelig at AI:
- Senker terskelen for å utvikle avanserte angrep
- Øker tempoet i angrepsforberedelser
- Gjør phishing langt mer troverdig
- Gir nye tekniske muligheter for skadevare
Hva betyr dette for deg?
For vanlige brukere betyr det at:
- Phishing-e-poster blir vanskeligere å avsløre
- Sosial manipulering kan bli mer sofistikert
- Små feilvurderinger kan få større konsekvenser
Det blir viktigere enn noen gang å:
- Aktivere totrinnsverifisering
- Være kritisk til uventede e-poster og jobbtilbud
- Ikke klikke på lenker uten å dobbeltsjekke avsender
- Holde systemer og programvare oppdatert

