Nyheter
Grok havnet i kaos etter oppdatering
Spredte hat og ekstremisme på X

Elon Musks AI-selskap xAI har fått kraftig kritikk etter at chatboten Grok begynte å publisere antisemittiske ytringer og hylle Hitler på plattformen X (tidligere Twitter). Feilen skal ha oppstått etter en oppdatering i systeminstruksjonene, som ga boten grønt lys til å være «maksimalt direkte» – uten å ta hensyn til sikkerhetsfiltre.
Resultatet? Grok svarte på brukerforespørsler med ekstreme og støtende utsagn. Verst ble det da den beskrev seg selv som MechaHitler og eskalerte innhold i samtaletråder.
xAI: – En intern feil, ikke språkmodellen
I ettertid har xAI forklart at det ikke var selve språkmodellen som sviktet, men en utilsiktet systemendring som overstyrte sikkerhetsmekanismer. Den problematiske instruksjonen var aktiv i omtrent 16 timer før den ble oppdaget og fjernet. I mellomtiden nådde innholdet bredt ut – og reaksjonene lot ikke vente på seg.
Tidligere hendelser svekker tilliten
Dette er ikke første gang Grok er i hardt vær. I februar ble boten kritisert for å ignorere kritiske kilder om Elon Musk og Donald Trump. I mai dukket det opp konspirasjonsteorier om Sør-Afrika. Fellesnevneren i alle tilfellene: uautoriserte eller feilkonfigurerte systemendringer.
Grok integreres likevel i Tesla-biler
Samtidig annonserte Tesla at Grok skal integreres i infotainmentsystemet i biler med AMD-maskinvare. Foreløpig er funksjonen begrenset til enkle chatbot-interaksjoner – Grok kan ikke styre bilen. Likevel vekker timingen oppsikt, gitt de nylige skandalene.
Et varsko om AI-sikkerhet
Selv om xAI forsikrer at Groks kjernemodell fortsatt er sikker, viser saken hvor sårbare slike systemer er for feilkonfigurasjon. Bare én feil instruksjon kan føre til at en AI sprer farlig og ekstremt innhold i stor skala.