Følg oss her

AI

Musk-chatboten Grok sprer og retter feilinformasjon etter skyting i Australia

Publisert

d.

Grok ble tatt i å forvrenge fakta om Bondi-skytingen

Shutterstock.com

Ifølge Mezha.net viser hendelsen hvordan chatboten delte unøyaktige detaljer kort tid etter skytingen i Sydney. En tidlig versjon presenterte feilaktige beskrivelser av gjerningspersonen. Det reiser spørsmål om modellens beredskap i akutte nyhetssituasjoner.

Feilen ble raskt rettet men etterlot tvil

miss.cabul / Shutterstock.com

Mezha.net beskriver hvordan systemet korrigerte seg selv etter nytt datatilfang. Likevel rakk feilinformasjonen å spre seg bredt. Det understreker utfordringen med reaktiv læring i sanntid. Og risikoen ved raske svar uten tilstrekkelig verifisering.

Eksperter advarer mot AI i krisesituasjoner

Frame Stock Footage / Shutterstock.com

AI-forskere sier til Mezha.net at språkmodeller mangler tilstrekkelig filtrering under breaking news. Når informasjon endrer seg fra minutt til minutt, øker faren for feil. Selv avanserte systemer som Grok kan da forsterke usikkerhet. Det skaper behov for klarere rammer.

X-plattformens tempo forsterker feilspredning

Shutterstock.com

Rapporten peker på at Grok trenes tett på sanntidsstrømmer fra X. Det gir raske svar men gjør modellen sårbar for upresis informasjon. Mezha.net viser hvordan feil raskt kan spre seg via brukere. Og det utfordrer plattformens troverdighet i nødsituasjoner.

Musk holder fast ved strategien tross kritikk

Shutterstock.com

Elon Musk mener ifølge Mezha.net at rask informasjonsflyt veier tyngre enn forsiktighet. Han erkjenner risikoen men ser den som midlertidig. Kritikere mener derimot at AI må være mer robust før videre utrulling. Spenningen mellom innovasjon og ansvar øker.

Grok får ros for rask selvkorrigering

Shutterstock.com

Til tross for alvorlige feil fremhever eksperter Groks evne til å rette kursen. Mezha.net forklarer at modellen korrigerte informasjonen uten menneskelig inngrep. Det viser potensialet for kontinuerlig forbedring. Samtidig reiser det spørsmålet om hvor mange feil som kan aksepteres.

Teknologien blir smartere men ikke mer forsiktig

Shutterstock.com

Mezha.net beskriver hvordan Grok får bredere tilgang til kontekstbaserte datakilder. Det gir dypere svar men også større risiko. Når systemene skaleres, vokser konsekvensene av feil. Derfor etterlyses sterkere sikkerhetsfiltre.

AI i nyhetsstrømmer krever nye sikkerhetsstandarder

Krot_Studio/shutterstock.com

Ifølge Mezha.net viser saken et økende gap mellom innovasjonstempo og ansvarlig praksis. Feilinformasjon i kritiske situasjoner kan skape panikk og mistillit. Derfor presser eksperter på for tydeligere regulering. Grok-hendelsen blir et sentralt eksempel.

Hej, jeg hedder Mikkel, jeg er 22 år og arbejder i Tech-afdelingen som skribent og content creator. Jeg går meget op i træning – både løb, styrketræning og alt derimellem. Tidligere har jeg også arbejdet som e-sportstræner, da jeg havde mere fritid.

Annonse