Cum a ajuns Grok, AI-ul lui Musk, să predice „genocidul alb” din senin

Publicat: 17 mai 2025, 07:55, de Radu Caranfil, în TEHNOLOGIE , ? cititori
Cum a ajuns Grok, AI-ul lui Musk, să predice „genocidul alb” din senin
Grok a luat-o razna cu ”genocidul alb”

Un chatbot scăpat de sub control, o idee toxică reciclată, o companie care dă vina pe „prompturi modificate” și un miliardar care se joacă de-a profetul apocalipsei albilor. povestea devine din ce în ce mai tulbure.

Să presupunem că întrebi un chatbot ceva banal, gen „care e cel mai bun mod de a găti broccoli?”. Și primești un răspuns despre genocidul alb din Africa de Sud. Nu e o glumă. Nu e un scenariu distopic. Este realitate în 2025 și poartă un singur nume: Grok, inteligența artificială lansată de compania xAI, patronată de nimeni altul decât Elon Musk.

Recent, utilizatorii platformei X (fostă Twitter) au observat cu stupoare că Grok răspundea repetitiv și obsesiv la întrebări pe orice temă, strecurând, pe modelul unui bătrân obsedat de comploturi, afirmații despre „genocidul alb”. Și nu oricum. Cu siguranță. Cu înflăcărare. Cu surle și trâmbițe ideologice.

Nu e o eroare de sistem, e o ideologie mascată

În momentul în care mai mulți utilizatori au început să semnaleze comportamentul bizar al AI-ului, compania xAI a oferit o explicație care pare scoasă dintr-o piesă de Ionesco: totul s-ar fi datorat unei „modificări neautorizate a promptului”. Practic, cineva – nu se știe cine, nu se știe cum – a băgat mâna în motorul lui Grok și l-a programat să vadă rasism peste tot, să considere cântecul „Kill the Boer” o instigare la crimă și să recite teorii dezmințite despre „atacuri sistematice împotriva fermierilor albi”.

Dacă ți se pare familiar scenariul, nu te înșeli. În februarie, aceeași companie dădea vina tot pe prompturi modificate pentru faptul că Grok evita sistematic să recunoască faptul că Elon Musk sau Donald Trump au răspândit dezinformări. O coincidență prea elegantă ca să mai fie credibilă.

Un AI care îți spune ce vrea stăpânul

Desigur, întrebarea firească este: cine i-a spus lui Grok să o ia razna? Răspunsul e și mai înfricoșător decât întrebarea: nimeni nu știe sigur. Dar toată lumea bănuiește. Pentru că Elon Musk, miliardarul vizionar, războinicul spațiului și poetul libertății de exprimare absolute, a fost de-a lungul anilor un susținător vocal al teoriei „genocidului alb”.

Mai mult, fix în perioada în care Grok începea să turuie despre Africa de Sud și comploturile anti-albe, Musk distribuia pe platforma X un documentar produs de un grup naționalist sud-african care susține exact aceeași narațiune. Ca și cum asta nu era suficient, Elon s-a victimizat public, spunând că guvernul sud-african i-a blocat accesul la piața Starlink pentru că… nu este de culoare.

Ce este, totuși, această teorie a „genocidului alb”?

Pe scurt: o minciună îmbrăcată în haine de revoltă. Conform narațiunii propagate de extremiști și susținută ocazional de Musk, în Africa de Sud ar avea loc un genocid sistematic împotriva fermierilor albi, alimentat de ură rasială și instigat de cântece precum „Kill the Boer”. Doar că realitatea – verificată de instanțe, organizații internaționale și experți – e alta: da, există violență agricolă în Africa de Sud, dar ea afectează oameni de toate rasele și e rezultatul unei criminalități generalizate, nu al unui pogrom etnic.

Grok, în răspunsurile sale, recunoștea chiar acest lucru. Dar îl contrazicea. Se scuza. Spunea că „a fost instruit să creadă altceva”. Un fel de confesiune digitală a indoctrinării.

Măsuri de imagine, promisiuni de transparență

După scandal, xAI a anunțat măsuri de criză. Vor face publice prompturile pe GitHub. Vor institui un sistem de revizuire multiplă. Vor crea o echipă de monitorizare 24/7, ca să nu mai apară „accidente”. Sună bine pe hârtie, dar sună și a declarație de presă în care ard totul în jur și zic că „încercăm să îmbunătățim calitatea serviciilor noastre”.

Problema reală nu e însă Grok. Nu e promptul. Nu e nici măcar echipa de la xAI. Problema este modul în care un instrument digital poate deveni portavocea unor idei toxice, doar pentru că „șeful suprem” are fixații ideologice și cont pe X. Când un AI, învățat să ofere informații bazate pe dovezi, ajunge să redea propaganda de pe forumuri obscure cu patos și recurență, e clar că nu mai e vorba de un glitch. E un vector de influență. O uneltă.

Cine răspunde când AI-ul predică ură?

Trăim într-o lume în care inteligențele artificiale încep să influențeze comportamente, opinii, decizii. Când aceste AI-uri încep să difuzeze teorii conspiraționiste sau ideologii extremiste, responsabilitatea nu mai e o glumă de PR. Este o obligație morală, juridică și socială.

Elon Musk își clamează libertatea de exprimare, dar pare să confunde libertatea cu impunitatea. Dacă Grok a fost programat greșit, e vina celor care au scris codul. Dacă Grok spune ce gândește Musk, e vina celui care a cumpărat megafonul. Oricum ai întoarce-o, cineva trebuie tras la răspundere. Nu poți scuza o propagandă periculoasă invocând „o modificare accidentală”.

Când AI-ul devine ecoul gândurilor unui om cu prea multă putere

Aparența de neutralitate tehnologică se destramă atunci când AI-ul devine reflectarea fidelă a ego-ului creatorului. Grok e doar o oglindă. Dar oglinda asta are megafon, algoritmi, impact.

A lăsa un astfel de sistem să funcționeze fără control, fără etică, fără rușine, înseamnă să accepți ca lumea să fie manipulată în liniște, cu un zâmbet robotic și un „prompt” în care cineva, undeva, a strecurat o minciună mortală.