Când te concediază un algoritm: inteligența artificială intră în HR și face ordine… fără inimă

Publicat: 08 iul. 2025, 20:32, de Radu Caranfil, în TEHNOLOGIE , ? cititori
Când te concediază un algoritm: inteligența artificială intră în HR și face ordine... fără inimă
AI devine șef serviciu Human Resources

Te-ai obișnuit cu AI-ul care îți face sumarul unui email, traduce o frază sau îți scrie o scuză credibilă pentru ședința ratată. Dar ce faci când, într-o dimineață, primești un e-mail sec, fără apelativ personal, fără explicație, în care ți se mulțumește pentru colaborare și ți se taie accesul la sistem? Ce faci când nu mai există „șeful care decide”, ci un algoritm care te-a considerat „ineficient statistic”?

De la „îți scriem CV-ul” la „te dăm afară”: cum a ajuns AI-ul să decidă cine e promovat și cine pleacă

Sună distopic, dar e deja realitate. Managerii din marile corporații internaționale folosesc pe scară largă inteligența artificială nu doar ca asistent, ci ca decident. Iar în unele cazuri, AI-ul îți hotărăște viitorul profesional fără ca măcar să știi.

Ascensiunea AI-ului în birourile de resurse umane

Un sondaj recent, realizat pe peste 1300 de manageri, a scos la iveală cifre greu de ignorat:

  • 78 % folosesc AI pentru a decide salariile angajaților.
  • 77 % îl consultă pentru promovări.
  • 66 % îl folosesc pentru a decide cine pleacă.
  • 1 din 5 manageri lasă decizia de concediere exclusiv în mâna algoritmului.

Cu alte cuvinte, dacă un chatbot îți analizează performanțele, tonul din e-mailuri, orele de activitate și interacțiunile din call-uri, poate ajunge la concluzia că ești „nealiniat cu dinamica echipei” sau „sub așteptările companiei” – expresii standardizate pe care AI-ul le servește cu politețe robotică.

Ce e mai grav? Unii manageri folosesc AI-ul nu pentru a descoperi adevărul, ci pentru a-i valida propriile prejudecăți. Fenomenul are și un nume: sycophancy. Algoritmul, antrenat să-ți „satisfacă” cerințele, confirmă ceea ce vrei deja să crezi.

Iar dacă șeful are impresia că Ion „nu mai livrează”, AI-ul va căuta fix acele argumente care să confirme bănuiala. Nu verifică, nu contrazice. Confirmă. Și taie.

Concediere „pe curat” – fără lacrimi, fără conflict

Pentru unii manageri, avantajele sunt evidente: decizia e „neutră”, fără complicații emoționale, fără nevoia unei confruntări. Dacă apare o întrebare incomodă, răspunsul e simplu: „așa a spus AI-ul”.

Iar într-o lume obosită de procese lungi și acuzații de discriminare, delegarea deciziilor dificile către un program de inteligență artificială pare o soluție elegantă. Dar e și o bombă cu ceas.

Un algoritm nu cunoaște viața ta, povestea ta, contextul tău. El vede cifre. Și uneori le interpretează prost.

Oamenii în fața mașinii: moral, legal, periculos

Utilizarea AI-ului în procesele de HR vine cu trei mari probleme:

1. Lipsa responsabilității

Cine răspunde când AI-ul dă afară un angajat valoros dintr-o eroare? Managerul zice: „nu eu”. Compania zice: „algoritmul e uneltește”. Dar omul concediat are de plătit chiria.

2. Discriminarea automatizată

Dacă AI-ul este antrenat pe date părtinitoare, va perpetua aceleași nedreptăți. Va prefera angajați care „scriu mai scurt”, „răspund rapid” sau care nu ies din tipare. Creativitatea, empatia sau umanitatea pot deveni criterii de eliminare.

3. Efectul psihologic

Lucrul într-un mediu în care știi că AI-ul te monitorizează, notează, clasifică și decide dacă mai meriți biroul poate duce la anxietate cronică, burnout sau renunțări în masă. E un Big Brother zâmbitor, dar rece.

Vocile dure: „AI-ul va elimina jumătate din joburile de birou”

Nu e un secret că marile companii se pregătesc de o reorganizare brutală a muncii albe. Andy Jassy, CEO Amazon, a spus-o clar: „vom avea nevoie de mai puțini oameni pentru anumite taskuri”.
Elon Musk merge și mai departe:
„AI-ul va face inutili jumătate dintre angajații de birou.”

Companiile se îndreaptă spre o lume în care AI-ul nu doar optimizează procese, ci decide cine mai are voie să participe la ele. Și totul se face „pe curat”, fără urlete, fără sindicate, fără fluturaș de salariu în aer. Doar cu un click și o decizie generată.

Dar se poate și altfel: AI-ul ca unealtă, nu ca stăpân

Inteligența artificială poate fi un aliat. Poate analiza obiectiv, poate identifica abuzuri, poate sugera soluții mai bune pentru echipe, poate semnala burnout-ul.

Dar pentru asta, e nevoie de câteva condiții fundamentale:

  • Transparență – angajații trebuie să știe ce se măsoară și cum.
  • Responsabilitate umană – niciun algoritm nu trebuie să ia o decizie ireversibilă fără validare umană.
  • Reguli clare – statele trebuie să reglementeze utilizarea AI-ului în HR. Nu doar recomandări, ci norme juridice ferme.
  • Educație – atât managerii, cât și angajații trebuie să înțeleagă cum funcționează AI-ul. Frica vine din necunoaștere, iar abuzul – din ignoranță.

Omul trebuie să decidă

Suntem, poate, la începutul unei ere în care AI-ul devine parte din toate deciziile importante din companie. E normal. Dar pericolul apare când delegăm responsabilitatea umană unei logici matematice fără suflet.

Un manager bun nu ar trebui să folosească AI-ul pentru a evita deciziile dificile, ci pentru a le înțelege mai bine. Nu să fugă de oameni în spatele ecranului, ci să-i asculte, chiar și atunci când algoritmul spune: „Ion trebuie să plece.”

AI-ul nu poate înțelege speranțele, fricile, zilele proaste sau un vis amânat. Dar un lider adevărat – da.

România și AI-ul în HR: când vine valul peste noi

Deși pare că România e „în urmă” față de marile corporații globale, realitatea e alta: valul automatizării a ajuns deja în companiile locale – doar că se manifestă mai tăcut, mai haotic și adesea fără reguli.

Multe firme românești – din IT, BPO, banking, retail sau chiar din administrație – testează deja softuri de HR bazate pe inteligență artificială. Ele promit „optimizarea proceselor de recrutare”, „monitorizarea performanței” și „identificarea riscurilor de demisie”. Pe scurt: big brother cu badge de HR.

Ce nu se spune este că:

  • unele firme folosesc AI-ul pentru a tria CV-uri în mod complet opac – fără ca aplicanții să știe că au fost respinși de un algoritm;
  • altele generează „profiluri predictive” ale angajaților, în funcție de datele colectate din e-mailuri, chaturi, intrări în sistem și… tonul vocii în call-uri;
  • în unele cazuri, departamentele de HR din firme românești mici folosesc gratuit ChatGPT pentru a redacta „motivări de concediere” sau „evaluări comportamentale”.

Și mai grav este că nu există, în momentul de față, nicio reglementare clară în România care să controleze utilizarea AI-ului în resurse umane. Companiile nu sunt obligate să informeze angajații dacă datele lor sunt analizate de un algoritm. Nici cine ia deciziile finale. Nici ce se întâmplă cu datele.

Consecințele? Le vedem deja:

  • Angajați care află că au fost retrogradați „pentru că așa a spus sistemul de analiză”.
  • Recrutări automate care ignoră complet candidaturile din afara profilului „standardizat”.
  • Manageri care se scuză cu fraze absurde precum „nu noi decidem, avem un tool care face matching”.
  • O generație tânără care intră pe piața muncii deja suspectând că umanitatea a fost scoasă din fișa postului.

România are o alegere de făcut

Poate să aștepte până ce va apărea primul scandal grav – cu concedieri abuzive, date personale pierdute și decizii discriminatorii „generate automat”. Sau poate să se trezească acum și să reglementeze clar:

  • ce e permis și ce nu în utilizarea AI în HR;
  • cum trebuie protejați angajații și candidații;
  • cine răspunde pentru deciziile „automate”;
  • ce drepturi are fiecare om în fața unei decizii luate de un algoritm.

AI-ul nu trebuie să înlocuiască omenia. Nici în România, nici în altă parte.

Un stat care își respectă cetățenii trebuie să-i apere nu doar de abuzurile birocrației, ci și de tăcerea rece a unei mașini care, la final, nu știe să spună nici măcar „mulțumim pentru tot”.