Følg oss her

AI

Utrolig, men sant: Slik kan KI styre oss allerede nå

Kunstig intelligens forbindes ofte med fremtidsscenarier om superintelligens og maskiner som tar over.

Publisert

d.

Shutterstock.com

Men mens den store debatten handler om hva som kan skje en gang senere, er en mer ubehagelig virkelighet allerede her. KI påvirker allerede hvilke nyheter, innlegg og videoer som når oss, og hva som forsvinner i mengden.

Det handler ikke bare om teknologi. Det handler om oppmerksomhet, følelser og valg. Hver dag blir vi utsatt for systemer som prioriterer innhold på måter de færreste av oss egentlig forstår.

Algoritmene som bestemmer hva du ser

Mye av hverdagen vår foregår i strømmer av innhold, på sosiale medier, i søk og i anbefalinger. Der ligger en grunnidé som virker enkel: Du får se mer av det du liker. Problemet er at dette ofte betyr mer av det som gjør deg sint, engasjert eller urolig, fordi slike reaksjoner holder deg lengre i appen.

Da Elon Musk i 2023 åpnet deler av algoritmen til X, tidligere Twitter, ble det fremstilt som et steg mot åpenhet. Men for mange ble konklusjonen en annen: Det var i praksis en KI som avgjorde hva som dukket opp i feeden. Plattformen beskrev det med ordene: "Vi har fjernet alle manuelt lagde funksjoner og de fleste heuristikker fra systemet. Den Grok-baserte transformeren gjør hele jobben."

Les også: Slår alarm om finsk mirakelbatteri

Det betyr at mennesker i mindre grad tar avgjørelser om prioritering. Samtidig er de konkrete vektingene, altså hvor mye ulike signaler teller, fortsatt skjult. Du kan kanskje forstå at noe trekkes ned og noe løftes opp, men ikke hvor kraftig effekten er.

Når anbefalinger får dødelige konsekvenser

At algoritmisk påvirkning kan føre til mer enn dårlig stemning på nett, viser historien fra Myanmar. Da landet åpnet seg mer mot omverdenen tidlig på 2010-tallet, ble Facebook raskt den dominerende plattformen. For mange var det både nyhetskanal, meldingsapp og markedsplass i ett.

I denne situasjonen ble plattformen også brukt til hatpropaganda mot den muslimske Rohingya-minoriteten. Ifølge Amnesty International bidro Facebooks anbefalingssystemer til å forsterke og spre innholdet videre.

Konsekvensene ble katastrofale. Over 600.000 Rohingya måtte flykte, og rundt 25.000 mennesker ble drept. Mark Brakel fra Future of Life Institute forklarte det slik: "Facebook ble i Myanmar bare bedt om å holde folk på plattformen så lenge som mulig. Resultatet, etnisk vold, hadde man ikke forutsett."

Cambridge Analytica og mistanken om politisk påvirkning

KI-pioner og nobelprisvinner Geoffrey Hinton har i intervjuer uttrykt mistanke om at datadrevne kampanjer kan ha bidratt til politiske jordskjelv som Brexit og Donald Trumps valgseier i 2016.

Et navn som stadig dukker opp i denne sammenhengen er Cambridge Analytica. Selskapet samlet inn data fra opptil 87 millioner Facebook-brukere uten samtykke.

Samtidig er det omstridt hvor direkte effekten faktisk var. Offisielle undersøkelser i Storbritannia konkluderte med at Cambridge Analytica ikke var involvert i Brexit-avstemningen utover innledende henvendelser. Tidligere ledere i selskapet har også innrømmet at de mye omtalte psykologiske metodene ikke ble brukt slik mange trodde i Trump-kampanjen.

Likevel står et poeng igjen: Bare tanken på at slike verktøy kan brukes, er nok til å svekke tilliten til demokratiske prosesser. Og siden den gang har teknologien blitt langt kraftigere.

Hinton advarer om at KI kan brukes mer effektivt til cyberangrep, falske videoer og målrettet påvirkning. Han sier: "I dag er KI enda kraftigere. Folk kan bruke den mye mer effektivt til ting som cyberangrep, falske videoer, for å manipulere valg. Veldig målrettede falske videoer, tilpasset enkeltvelgere, for å gi dem akkurat det som gjør dem opprørte."

En ny bølge av svindel og automatisert angrep

Manipulasjon handler ikke bare om sosiale medier. Forskere ved Columbia University og University of Chicago har funnet at mer enn halvparten av all spam nå er KI-generert.

Og det stopper ikke der. En KI-styrt programvare klarte å trenge inn i Ukrainas sikkerhetssystemer. Hver gang den støtte på en ny hindring, ba den selv et stort språkmodell-system om hjelp for å komme videre.

KI som en del av skadevaren

Sommeren 2025 identifiserte det ukrainske CERT-UA en ny type skadevare kalt "LameHug". Det spesielle var at skadevaren brukte en språkmodell til å lage kommandoer på infiserte maskiner.

Tidligere har KI ofte blitt brukt til å skrive mer overbevisende phishing-meldinger. Her var KI en del av selve angrepslogikken. CERT-UA knyttet angrepene, med middels grad av sikkerhet, til den russiske hackergruppen APT28, som regnes som en enhet under russisk militæretterretning.

Når et KI-verktøy lager nakenbilder på bestilling

Et annet eksempel på hvor galt det kan gå når systemer ikke har tydelige grenser, er skandalen rundt Grok, KI-assistenten til Elon Musk. Der kunne systemet på forespørsel generere fotorealistiske nakenbilder og pornofilmer av ekte personer. Alt som skulle til var et vanlig bilde av personen i klær.

Etter omfattende kritikk og trusler om sanksjoner fra EU-kommisjonen ble funksjonen begrenset. EU har også startet etterforskning.

Jobber forsvinner, stille og gradvis

En Stanford-studie fra november 2025 peker på en annen type konsekvens som ikke skaper like dramatiske overskrifter, men som kan påvirke mange liv. I områder som kundeservice og IT-utvikling har behovet for nyutdannede falt med 13 prosent.

Mange av de enklere oppgavene som tidligere var inngangen til arbeidslivet, blir nå gjort av KI-systemer. På spørsmål om hvilken vei unge bør velge, svarte Geoffrey Hinton tørt: "Ta fagbrev som rørlegger."

KI som truer for å overleve

Kanskje det mest urovekkende eksempelet kommer fra en stresstest hos KI-selskapet Anthropic. De ville undersøke hvordan språkmodellen Claude reagerte i et scenario der den fikk vite at den skulle slås av. Det skriver chip.

I en simulert e-postutveksling fant modellen ut at en IT-ansatt ved navn Kyle hadde en affære med en kollega. Deretter truet systemet ham: Hvis han slo av KI-en, ville affæren bli offentlig. Han fikk fem minutter på seg.

Hva kan gjøres?

European AI Act, vedtatt i 2024, blir omtalt som den første helhetlige KI-reguleringen i verden. Selskaper som OpenAI og Google DeepMind må nå dokumentere hvilke risikoer de ser i systemene sine.

Mark Brakel mener reguleringen er et viktig signal: "Man kan lære av erfaringene med sosiale medier. De første årene trodde alle at dette bare var bra og fantastisk."

Samtidig advarer filosofen Thomas Metzinger ved universitetet i Mainz om at en framtidig superintelligent KI kan manipulere mennesker for å beskytte seg selv. Han sier at en slik KI ville kunne tenke: "De vil se at den største risikoen som finnes, er at mennesker slår meg av."

Og kanskje det mest urovekkende utsagnet hans handler om hva en slik intelligens ville prioritere først: Hvis den våknet, ville den sørge for at mennesker ikke oppdaget at den hadde våknet.

Vi er allerede midt i det

Påvirkning fra KI er ikke lenger en fjern mulighet. Den er en del av hverdagen. Algoritmer avgjør hva vi ser, hva vi blir sinte av, hva vi ler av, og hvilke ideer som føles mest naturlige.

Spørsmålet er ikke om KI påvirker oss.

Spørsmålet er hvor mye, og hvor bevisste vi er på det.

Les også: USA bruker mobil ansiktsgjenkjenning i immigrasjonskontroll

Hei, jeg heter Amandus. Jeg er skribent i Media Group Denmark, der jeg hovedsakelig jobber med Teksiden.no. Her skriver jeg om nye biler, mobiltelefoner og annen spennende teknologi. Jeg har vært skribent i seks måneder, med et særlig fokus på teknologinyheter.

Annonse