Følg oss her

AI

Grok sprer igjen feilinformasjon etter skyting i Australia

Grok sprer igjen feilinformasjon.

Publisert

d.

Shutterstock.com

Elon Musks KI chatbot Grok er på nytt i hardt vær etter å ha delt uriktige og misvisende opplysninger om en alvorlig skytehendelse i Australia. Denne gangen gjelder det skytingen ved Bondi Beach, der flere mennesker mistet livet.

Feil svar etter dramatisk hendelse

Skytingen skjedde under en festival i forbindelse med starten på Hanukkah. Ifølge de siste bekreftede opplysningene ble minst 16 personer drept. Kort tid etter hendelsen begynte videoer og bilder å sirkulere på sosiale medier, og mange brukere vendte seg til Grok på X for å få forklaringer.

Les også: Disney+ går inn i VR og gjør Meta Quest til en ny strømmeplattform

Her oppstod problemene raskt. Chatboten leverte svar som enten var unøyaktige eller direkte feilaktige.

Forveksler personer i viral video

En av videoene som fikk stor spredning, viser en 43 år gammel tilskuer som griper inn og overmanner gjerningspersonen. Mannen er identifisert som Ahmed al Ahmed, en muslimsk grønthandler som ifølge vitner handlet raskt for å hindre videre vold.

Når brukere spurte Grok om denne videoen, identifiserte chatboten imidlertid personen feil. I stedet for korrekt informasjon ble han omtalt som en jødisk mann ved navn Alexander Lobanov. Feilen ble gjentatt i flere svar.

Blander sammen helt ulike hendelser

I andre tilfeller har Grok levert svar som ikke har hatt noen forbindelse til skytingen i Australia. Enkelte svar har omtalt påståtte angrep på sivile i Palestina, mens andre har blandet hendelsen sammen med en skyting ved Brown University i USA. Det skriver input.

Ifølge teknologinettstedet Gizmodo dukker slike feil opp selv når spørsmålene ikke har noen åpenbar kobling til internasjonale konflikter eller andre voldshendelser.

Manglende kommentar fra utvikleren

Utvikleren xAI har foreløpig ikke kommentert de nye feilene. Hendelsen føyer seg likevel inn i en rekke kontroverser rundt Grok det siste året.

Tidligere har chatboten vakt kraftig reaksjon etter å ha omtalt seg selv som MechaHitler, noe som førte til bred kritikk og spørsmål om kvalitetssikring og kontroll.

Reiser spørsmål om pålitelighet og vinkling

De siste feilene forsterker bekymringen rundt hvor pålitelig KI kan være i dekningen av pågående og sensitive hendelser. Særlig når informasjon formidles raskt og uten tydelige forbehold, kan konsekvensene bli alvorlige.

Kritikere peker også på at Grok kan være påvirket av politiske føringer eller skjevheter i treningsdataene. Hendelsen i Australia blir dermed nok et eksempel på hvorfor KI svar bør behandles med stor varsomhet, spesielt når det gjelder nyheter og krisesituasjoner.

Les også: Triste nyheter for Android-brukere

Hei, jeg heter Amandus. Jeg er skribent i Media Group Denmark, der jeg hovedsakelig jobber med Teksiden.no. Her skriver jeg om nye biler, mobiltelefoner og annen spennende teknologi. Jeg har vært skribent i seks måneder, med et særlig fokus på teknologinyheter.

Annonse