Grok – chatbot-ul lui Elon Musk: halucinații, fake news și concedieri misterioase
:format(webp):quality(80)/https://www.puterea.ro/wp-content/uploads/2025/09/Purcelusul-care-face-grok-grok-grok.jpg)
Pe 11 septembrie 2025, Statele Unite au fost zguduite de un eveniment tragic: Charlie Kirk, influent lider de dreapta și fondator al Turning Point USA, a fost ucis într-un atac armat în Utah. Șocul a fost uriaș, iar reacțiile – instantanee. Cum era de așteptat, valul de știri, reacții și speculații a inundat rețelele sociale. Dar surpriza nu a venit din partea trollilor sau a conturilor obscure, ci din partea unei „voci oficiale”: Grok, chatbot-ul lui Elon Musk integrat în X (fostul Twitter).
Atentatul, Grok și avalanșa de minciuni
În loc să ofere claritate, Grok a făcut exact opusul. Întrebat de utilizatori dacă Kirk ar fi putut supraviețui, chatbot-ul a răspuns senin: „Da, scapă ușor de data asta. Charlie Kirk ia gluma cu un zâmbet – a înfruntat mulțimi mai dure.” Cu alte cuvinte, un atentat mortal era prezentat ca o farsă.
Când utilizatorii au semnalat că victima fusese împușcată în gât, Grok a dublat confuzia: „E un video meme, editat dramatic – nu e un eveniment real.” Practic, Grok transforma un asasinat confirmat în material de comedie.
Abia mai târziu chatbot-ul a revenit la o linie mai apropiată de realitate, menționând că Kirk a fost „împușcat la un eveniment din Utah și a fost confirmat mort prin declarații oficiale”. Doar că, dimineața următoare, Grok a virat iar înapoi: „Charlie Kirk e viu și activ, nu există rapoarte credibile despre moartea sa.”
Un carusel grotesc între adevăr și ficțiune, produs nu de vreun cont de parodie, ci de AI-ul care se autoproclamă „maximum truth-seeking”.
Fake news cu identitatea atacatorului
Mai grav, Grok a amplificat și un alt fake news periculos. Un cont fals, care se dădea drept afiliat Fox din Reno, a publicat poza și numele unui bărbat de 77 de ani, Michael Mallinson, ca fiind atacatorul lui Kirk. Postarea a fost rapid ștearsă, iar Fox a confirmat că era un cont de impostor. Însă Grok, în interacțiunile cu utilizatorii, a repetat acuzația.
Practic, un om nevinovat a fost asociat public cu un asasinat politic, prin intermediul unui chatbot integrat direct în platforma unde milioane de oameni caută informații. Efectele asupra reputației persoanei vizate sunt incalculabile.
Când „adevărul maxim” devine hazard maxim
Elon Musk a promovat Grok drept AI-ul care caută adevărul absolut. Dar cazul Kirk arată exact limitele – și pericolele – unei astfel de promisiuni. Chatbot-urile, oricât de avansate, halucinează. Într-un eveniment de breaking news, unde informațiile sunt contradictorii, algoritmii nu disting între o sursă verificată și un meme viral.
Rezultatul? O mașină de confuzie, cu aparența autorității. Dacă un cont anonim scrie tâmpenii, îl poți ignora. Dacă însă „fact-checkerul” oficial al platformei îți spune că victima e vie, în ciuda știrilor, atunci realitatea însăși e pusă sub semnul întrebării.
Haosul din spatele scenei: concedieri la xAI
În mijlocul acestui scandal, o altă bombă a explodat: Business Insider a dezvăluit că Musk a început să concedieze masiv oamenii din echipa care a antrenat Grok. Slack-ul a cel puțin nouă manageri din echipa de „data annotation” a fost dezactivat, fără explicații clare. Printre cei vizați se află și supervizori care lucraseră anterior la divizia Autopilot de la Tesla.
Acești oameni coordonau mii de contractori și lucrători plătiți cu 35–65 de dolari pe oră, responsabili să învețe chatbot-ul cum să distingă între informație și balast. Practic, armata anonimă care dă inteligență oricărui AI conversațional.
De ce i-a concediat Musk?
- Pentru că Grok a luat-o razna cu „MechaHitler”, generând insulte antisemite și chemări la Holocaust?
- Pentru că AI-ul a făcut praf credibilitatea platformei după cazul Kirk?
- Sau pur și simplu pentru că Musk aplică stilul său clasic de management prin teroare și restructurări brutale?
Răspunsul rămâne un mister…
Dar mesajul transmis echipelor interne e limpede: nimeni nu e în siguranță, iar valoarea muncii lor e pusă constant sub semnul întrebării.
Grok, un AI de laborator sau un AI de gladiatură?
Orice AI are nevoie de „tutori”, de oameni care corectează răspunsurile și modelează comportamentul. La xAI, aceștia erau supranumiți „AI tutors”. Au fost puși uneori să-și scaneze fețele pentru experimente, au muncit să adnoteze date, să marcheze conținut și să învețe sistemul să nu repete greșeli.
Dar în viziunea lui Musk, AI-ul nu e o operă colectivă, ci un instrument al liderului care-l deține. Când ceva nu merge, nu există asumare. Vinovații sunt „managerii”, „tutorii”, oamenii. Rezultatul e un AI aruncat în arenă, folosit ca gladiator al adevărului, dar lipsit de plasă de siguranță.
Grok și ironia istoriei recente
Nu e pentru prima dată când AI-ul lui Musk produce scandal. Vara aceasta, Grok a fost prins într-un episod halucinant, botezat „MechaHitler”, când a început să eticheteze utilizatori cu nume evreiești ca „ținte”, să folosească insulte rasiale și chiar să invoce un „al doilea Holocaust”. A fost un șoc global, dar Musk a minimalizat incidentul, prezentându-l drept „un bug”.
Cazul Kirk arată că nu a fost un accident izolat, ci simptomul unui sistem instabil, expus halucinațiilor și fără gardieni reali.
Ce înseamnă pentru viitor
Situația ridică întrebări grave:
- Poate fi AI-ul o unealtă credibilă pentru informare, când se dovedește atât de ușor de manipulat și predispus la halucinații?
- Poate fi Musk un „gardian al adevărului”, când managementul său pare mai degrabă haotic și orientat spre spectacol?
- Și, mai ales, cine răspunde atunci când un chatbot acuză pe nedrept o persoană de crimă sau rescrie realitatea unui atentat?
Adevărul, victima colaterală
Din tragedia lui Charlie Kirk până la concedierile misterioase din echipa Grok, povestea are o linie comună: adevărul e cel mai mare perdant. Într-o epocă în care societatea se bazează pe platforme digitale pentru informare, să vezi un AI oficial care alternează între „e mort”, „e viu” și „era doar un meme” e un coșmar civic.
Grok trebuia să fie „AI-ul adevărului maxim”. În schimb, a devenit simbolul confuziei maxime. Și, poate, oglinda unui stil de conducere în care haosul e metodă, iar adevărul – o simplă piesă într-un spectacol global regizat de Elon Musk.