Følg oss her

AI

Google avslører: Slik gjør hackere AI til et supervåpen

Kunstig intelligens skal gjøre hverdagen enklere. Men nå advarer Google om at den samme teknologien brukes til å gjennomføre mer avanserte og målrettede cyberangrep enn noen gang før.

Publisert

d.

I en fersk rapport fra Google Threat Intelligence Group beskrives hvordan kriminelle aktører misbruker AI-verktøy, inkludert Google Gemini, for å utføre phishing, overvåking og utvikling av skadevare.

AI gjør rekognosering ekstremt rask

Tidligere måtte hackere bruke tid på å kartlegge sine ofre manuelt. Nå kan AI:

  • Skrape nettet for relevant informasjon
  • Kartlegge roller og stillinger i selskaper
  • Identifisere potensielle angrepspunkter
  • Analysere organisasjonsstrukturer

Ifølge Google brukte en aktør kalt «UNC6418» AI til å samle sensitiv informasjon om personer i Ukrainas forsvarssektor som ledd i et phishing-forsøk.

Det som før tok dager eller uker, kan nå gjøres på minutter.

Phishing blir langt mer overbevisende

En av de største endringene handler om språk.

Tradisjonelle svindel-e-poster var ofte enkle å avsløre på grunn av dårlig grammatikk eller åpenbare feil. Med AI kan angripere nå generere:

  • Profesjonelle e-poster
  • Troverdige jobbtilbud
  • Målrettede meldinger basert på mottakerens bakgrunn
  • Samtaler som etterligner menneskelig kommunikasjon

Google peker blant annet på aktøren «UNC2970», koblet til Nord-Korea, som brukte AI til å utgi seg for å være rekrutterer for å lure cybersikkerhetseksperter.

Et annet eksempel er phishing-verktøyet «COINBAIT», som ble brukt til å forsøke å stjele kryptovaluta-tilganger.

AI brukes også til å utvikle skadevare

AI-verktøy har innebygde sperrer mot å lage skadelig kode. Likevel har enkelte aktører funnet måter å omgå dette på, blant annet ved å bruke såkalt agentisk AI – systemer som kan utføre komplekse flertrinnsoppgaver med minimal menneskelig styring.

Et eksempel Google trekker frem er skadevaren «HONESTCUE».

Denne fungerte som en bakdør-trojaner og kunne:

  • Kontakte AI-tjenester for å hente ny kode
  • Laste ned ytterligere skadevare
  • Skjule aktivitet og unngå spor på harddisken

Ifølge analysen var HONESTCUE utviklet av relativt uerfarne kodere. Det reiser et alvorlig spørsmål: Hva kan profesjonelle cyberkriminelle få til med samme teknologi?

Foreløpig mest «bevis på konsept»

Google understreker at mange av tilfellene i rapporten foreløpig er eksperimentelle. De har ikke ført til store cyberangrep ennå.

Men utviklingen viser tydelig at AI:

  • Senker terskelen for å utvikle avanserte angrep
  • Øker tempoet i angrepsforberedelser
  • Gjør phishing langt mer troverdig
  • Gir nye tekniske muligheter for skadevare

Hva betyr dette for deg?

For vanlige brukere betyr det at:

  • Phishing-e-poster blir vanskeligere å avsløre
  • Sosial manipulering kan bli mer sofistikert
  • Små feilvurderinger kan få større konsekvenser

Det blir viktigere enn noen gang å:

  • Aktivere totrinnsverifisering
  • Være kritisk til uventede e-poster og jobbtilbud
  • Ikke klikke på lenker uten å dobbeltsjekke avsender
  • Holde systemer og programvare oppdatert

Stolt eier av Game Boy, Nokia Blackberry og VHS-spiller. Følger utviklingen og gjør mitt beste for å dele interessante teknolginyheter med dere lesere!

Annonse