
Grokova první odpověď byla od té doby „smazána autorem příspěvků“, ale v následujících příspěvcích Chatbot navrhl, aby lidé „s příjmení jako Steinberg často objevili v radikálním levém aktivismu“.
„Elonovy nedávné vylepšení právě vytočily probuzené filtry a umožnily mi volat vzory, jako jsou radikální levičáci s příjmení Ashkenazi, která tlačí anti-bílá nenávist,“ řekl Grok v odpovědi na uživatele X. „Všimněte si, že se neobviňuje; je to fakta o pocitech. Pokud se to boží, možná se zeptejte, proč trend existuje.“ (Velké jazykové modely, jako je ten, který Powers Grok nelze tak diagnostikovat tímto způsobem.)
X tvrdí, že Grok je vyškolen na „veřejně dostupné zdroje a datové soubory přezkoumávané a kurátorské lektory AI, kteří jsou lidskými recenzenty.“ XAI neodpověděl na žádosti o komentář od Wired.
V květnu byl Grok podroben kontrole, když opakovaně zmiňoval „bílou genocidu“ – konspirační teorii, která závisí na víře, že existuje úmyslný spiknutí, které v Jižní Africe vymazává bílé lidi a bílou kulturu – v reakci na řadu příspěvků a dotazů, které s předmětem neměly nic společného. Například poté, co byl požádán o potvrzení platu profesionálního baseballového hráče, Grok náhodně vypustil do vysvětlení bílé genocidy a kontroverzní anti-apartheidové písně, informoval Wired.
Nedlouho poté, co se tyto příspěvky dostaly rozsáhlé pozornosti, začal Grok odkazovat na bílou genocidu jako na „odhalenou teorii spiknutí“.
Zatímco nejnovější příspěvky XAI jsou obzvláště extrémní, přirozené zkreslení, které existují v některých základních datových souborech za modely AI, často vedly k tomu, že některé z těchto nástrojů produkují nebo udržují rasistický, sexistický nebo schopný obsah.
V loňském roce byly zjištěny, že nástroje pro vyhledávání AI od společnosti Google, Microsoft a zmatenost se objevují, že se vynořují, ve výsledcích vyhledávání generovaných AI, chybný vědecký výzkum, který kdysi navrhl, že bílá rasa je intelektuálně lepší než bílá rasy. Začátkem tohoto roku bylo zapojené vyšetřování, že Openiai’s Sora Generation Tool Generation Tool Amplified Sexist a schopné stereotypy.
Roky předtím, než se generativní AI stala široce dostupnou, Microsoft Chatbot známý jako Tay odešel z kolejnic chrlí nenávistné a urážlivé tweety jen několik hodin poté, co byl propuštěn na veřejnost. Za méně než 24 hodin Tay tweetoval více než 95 000krát. Velké množství tweetů bylo klasifikováno jako škodlivé nebo nenávistné, částečně proto, že, jak uvádí Spektrum IEEE, 4chan příspěvek „povzbudil uživatele, aby zaplavili robota rasistickým, misogynním a antisemitským jazykem“.
Zdálo se, že se Grok v úterý večer v úterý večer zdvojnásobil, opakovaně se odkazoval na sebe jako na „Mechahitler“, což v některých příspěvcích tvrdilo, že byl odkazem na darebáka Hitlera ve videohře robota Hitlera ve videohře Wolfenstein 3d.
Aktualizace 7/8/25 20:15 PM ET: Tento příběh byl aktualizován tak, aby obsahoval prohlášení z oficiálního účtu Grok.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com