Anthropic pune agenții AI să „viseze”: pasul spre roboții software care învață din propriile gafe

Publicat: 11 mai 2026, 06:58, de Radu Caranfil, în TEHNOLOGIE , ? cititori
Anthropic pune agenții AI să „viseze”: pasul spre roboții software care învață din propriile gafe
AI face nani bun

Anthropic a anunțat, pe 6 mai 2026, o funcție nouă pentru platforma Claude Managed Agents, numită „dreaming” — tradusă, cam poetic, prin „visare”. În realitate, nu vorbim despre vise în sens omenesc, cu oi electrice, coridoare albastre și copilăria pierdută printre servere.

Inteligența artificială începe să-și scrie singură amenda

Vorbim despre un mecanism prin care agenții AI își revăd activitatea trecută, își extrag tiparele utile, își notează greșelile și își ajustează memoria pentru sarcinile viitoare.

Pe românește: robotul software nu mai uită pur și simplu că a dat cu capul de prag. Își scrie undeva: „data viitoare, nu mai face asta”.

Anthropic este una dintre companiile importante din noul val AI, fondată de foști cercetători OpenAI și cunoscută mai ales pentru familia de modele Claude.

Firma s-a poziționat de la început ca un actor preocupat de siguranța sistemelor de inteligență artificială, dar fără să rămână blocată în teorie: concurează direct cu OpenAI, Google și Meta pe piața modelelor avansate.

În jurul Claude se construiește acum o platformă tot mai ambițioasă, orientată spre agenți AI capabili să execute sarcini complexe, nu doar să răspundă frumos la întrebări.

O denumire spectaculoasă pentru o funcție foarte serioasă

Termenul „visare” este, desigur, marketing cu parfum de science-fiction. Sună frumos, vinde bine, face titluri.

Dar mecanismul din spate este mai puțin mistic și mult mai interesant:

un proces programat care analizează sesiunile anterioare ale agentului, caută repetiții, erori, soluții bune, preferințe ale echipei și fragmente de experiență care merită păstrate.

Nu „visează” ca un om, nu are subconștient, nu se trezește transpirat după ce a visat că a uitat bacalaureatul la matematică.

Își face curățenie în sertarele memoriei. Iar pentru zona de business, asta poate fi mai valoros decât orice metaforă frumoasă.

De la chatbot la lucrător digital

Diferența dintre un chatbot obișnuit și un agent AI este cam diferența dintre un coleg care răspunde la întrebări și unul căruia îi dai o sarcină completă:

caută, compară, decide, execută, verifică.

Agenții AI sunt gândiți să ducă la capăt activități cu mai mulți pași, folosind instrumente externe, documente, baze de date, aplicații și fluxuri de lucru.

Problema este că, atunci când sarcina devine lungă, agentul începe să se împiedice: uită context, repetă greșeli, se blochează în soluții proaste sau confundă succesul aparent cu succesul real.

Marea problemă: cum știe agentul că a terminat bine?

Aici intră în scenă celelalte două funcții anunțate de Anthropic: „outcomes” și orchestrarea multi-agent.

Outcomes” permite stabilirea unor criterii clare de reușită, un fel de barem după care un alt agent poate evalua dacă sarcina a fost dusă la capăt cum trebuie.

Orchestrarea multi-agent împarte o problemă mare în bucăți mai mici, date unor agenți specializați, fiecare cu propria fereastră de context și propriile instrucțiuni.

În loc să pui un singur model să care tot sacul, îi dai mai multor agenți câte o parte din încărcătură.

Munca în echipă, varianta cu siliciu

Sistemul multi-agent seamănă cu o redacție sau cu o echipă tehnică bine organizată.

Un coordonator stabilește direcția, un specialist caută date, altul verifică, altul produce rezultatul final.

Avantajul este că fiecare agent poate lucra într-un spațiu propriu, fără să înghesuie toată complexitatea într-un singur fir de conversație.

Anthropic susține că această separare dă rezultate mai bune decât varianta în care un singur model trebuie să țină minte tot, să judece tot și să execute tot.

Pe scurt:

chiar și la inteligența artificială, omul-orchestră începe să piardă teren în fața echipei bine împărțite.

Demonstrația cu aselenizarea

Pentru a arăta cum funcționează sistemul, echipa Anthropic a folosit o companie fictivă, Lumara, care trebuia să trimită drone pe Lună pentru exploatare minieră.

Au fost creați trei agenți: unul de comandă, unul pentru detectarea zonelor potrivite de aselenizare și unul pentru navigație.

Prima rundă de simulări a dat rezultate bune, dar imperfecte.

Apoi a fost pornită sesiunea de „visare”. Peste noapte, agentul a analizat încercările anterioare și a produs un manual de coborâre, cu reguli extrase din experiențele precedente.

A doua zi, simulările au mers mai bine în zonele unde sistemul avusese probleme.

De fapt, aici se află noutatea

Partea cu adevărat importantă nu este că agentul „visează”, ci că poate transforma istoricul propriilor încercări într-o formă de memorie utilă.

Până acum, multe sisteme AI acumulau context ca o debara prost administrată: lucruri bune, lucruri inutile, piste moarte, detalii excelente, balast, confuzii.

După o vreme, memoria devenea mai degrabă sursă de zgomot decât sprijin real.

Visarea” încearcă să facă selecție: ce păstrăm, ce aruncăm, ce merită transformat în regulă pentru viitor.

Agenții AI își iau notițe pentru ei înșiși

Alex Albert, coordonator de cercetare la Anthropic, a descris mecanismul într-o formulă simplă: agenții învață să scrie note mai bune pentru sinele lor viitor.

Formularea e simpatică, dar trebuie citită fără misticism.

Nu apare o conștiință mică în dulapul serverului. Apare o memorie verificabilă, pe care oamenii o pot inspecta, aproba sau modifica.

Anthropic spune că aceste „amintiri” pot fi revizuite înainte de a fi aplicate automat, ceea ce contează enorm când astfel de sisteme sunt folosite în domenii sensibile.

Companiile vor exact asta: agenți care nu repetă erori

Pentru firme, promisiunea este clară: agenți AI care nu pornesc de fiecare dată de la zero.

Firma de avocatură Harvey ar fi raportat o creștere de șase ori a ratei de finalizare a sarcinilor atunci când a folosit „dreaming”, iar Wisedocs, companie specializată în evaluarea documentelor medicale, a indicat o reducere cu 50% a timpului necesar prin folosirea sistemului bazat pe rezultate.

Cifrele sunt impresionante, dar trebuie privite cu prudența sănătoasă rezervată oricărei demonstrații tehnologice venite din zona furnizorului.

Bune, promițătoare, dar încă nu sunt un verdict final.

Aici începe miza economică

Anthropic nu face acest anunț într-un colț liniștit al laboratorului, ci într-un moment de creștere agresivă.

Potrivit relatărilor despre declarațiile conducerii companiei, veniturile și utilizarea serviciilor Anthropic ar fi crescut puternic în primul trimestru din 2026, mult peste așteptările inițiale.

Explicația e simplă: companiile nu mai vor doar modele care răspund elegant la întrebări.

Vor sisteme care pot lucra. Vor agenți care citesc contracte, verifică documente, modifică cod, urmăresc procese, extrag concluzii și predau un rezultat utilizabil.

Nu e magie, e industrializare

Ceea ce vedem acum este trecerea de la AI ca instrument conversațional la AI ca infrastructură de muncă.

Prima etapă a fost miracolul textului: îi ceri ceva și răspunde.

A doua etapă a fost instrumentul: îl lași să caute, să calculeze, să scrie cod, să folosească aplicații.

A treia etapă, cea care se conturează acum, este agentul persistent:

un sistem care își amintește cum lucrează organizația, ce greșeli a făcut, ce preferințe există, ce standarde trebuie respectate și cum arată un rezultat acceptabil.

Problema autoverificării: când elevul își corectează singur lucrarea

Totuși, există o dificultate zdravănă.

Dacă un model AI își verifică singur rezultatele, riscul este să-și valideze propriile prostii cu o eleganță tot mai convingătoare.

Anthropic recunoaște această problemă: autoverificarea repetată pe multe sesiuni poate duce, în timp, la degradarea rezultatelor.

Altfel spus, sistemul poate învăța greșit din propriile greșeli, mai ales dacă baremul este prost definit sau dacă agentul evaluator are aceleași orbiri ca agentul executant.

De ce controlul uman rămâne indispensabil

Aici se rupe filmul pentru entuziaștii care visează corporații conduse de roboți cuminți, eficienți și neobosiți.

Fără criterii clare, audit, trasabilitate și intervenție umană, un agent AI autonom poate deveni un funcționar hiperactiv care greșește repede, în serie și cu o siguranță de sine enervantă.

Tocmai de aceea contează că Anthropic vorbește despre memorii inspectabile și despre posibilitatea ca modificările să fie revizuite înainte de aplicare.

Viitorul agentic nu va fi doar despre cât de mult poate face AI-ul singur, ci despre cât de bine putem vedea ce face.

Limbajul ne poate păcăli

Merită spus și altceva: industria AI are o plăcere aproape literară de a boteza funcțiile tehnice cu nume omenești.

Modelele „raționează”, „își amintesc”, „visează”, „au personalitate”, „învață din experiență”.

Uneori, aceste formule ajută publicul să înțeleagă rapid.

Alteori, creează o ceață periculoasă.

Un comentariu recent din presa tech critică exact această tendință de a împrumuta limbajul conștiinței umane pentru mecanisme statistice și arhitecturi software.

Problema nu e poezia în sine, ci confuzia pe care o poate produce.

Nu visează, dar începe să acumuleze experiență

Dacă lăsăm metafora la ușă, progresul rămâne formidabil.

Un agent AI care poate revizui sesiuni anterioare, extrage lecții, curăța memoria și aplica reguli noi devine mai apropiat de un colaborator software persistent decât de un simplu program reactiv.

Nu are conștiință, nu are intuiție umană, nu are responsabilitate morală.

Dar poate deveni mai bun printr-un ciclu tehnic de încercare, evaluare, notare și reluare. Iar în lumea companiilor, acest lucru valorează enorm.

Companiile așteptau exact această verigă

Multe firme au ezitat să lase agenții AI să gestioneze sarcini de producție tocmai fiindcă aceștia erau imprevizibili.

Un demo frumos nu ajunge când ai contracte, clienți, bani, documente medicale, securitate, conformitate și răspundere juridică.

Pentru adopția serioasă, agenții trebuie să fie mai constanți, mai verificabili și mai capabili să nu repete aceleași rateuri.

Visarea”, „outcomes” și orchestrarea multi-agent par gândite exact pentru această trecere: de la jucărie spectaculoasă la unealtă corporatistă cu pretenții de fiabilitate.

Unde poate duce acest pas

În câțiva ani, astfel de agenți ar putea deveni stratul invizibil de lucru din spatele firmelor:

verifică documente peste noapte, pregătesc rapoarte, urmăresc indicatori, propun corecții, repară cod, sortează solicitări, compară contracte, sintetizează ședințe și predau dimineața un pachet de decizii posibile.

Nu vor înlocui complet oamenii, cel puțin nu în forma civilizată a poveștii, dar vor schimba masiv felul în care munca intelectuală este împărțită.

Omul va rămâne responsabilul, dar agentul va deveni executantul care nu doarme. Sau, iată ironia, care „visează” tocmai ca să lucreze mai bine după aceea.

Visul mașinii este, de fapt, coșmarul rutinei umane

Marea veste nu este că AI-ul a început să viseze.

Ar fi și culmea: încă nu ne-am lămurit ce facem cu oamenii care visează prea mult în ședințe.

Vestea reală este că agenții AI încep să capete memorie operațională, criterii de reușită și capacitate de corecție pe baza propriului trecut.

Asta poate transforma inteligența artificială dintr-un interlocutor strălucitor într-un lucrător digital care se rodează, se ajustează și devine mai folositor în timp.

Pentru economie, este un salt major.

Pentru companii, este promisiunea unei automatizări mai puțin naive.

Pentru oameni, este încă un semn că partea repetitivă, procedurală și plicticoasă a muncii intelectuale va fi mâncată bucată cu bucată de sisteme tot mai eficiente.

Mașina nu visează ca noi.

Dar începe să țină minte unde a greșit.

Iar pentru foarte multe birouri, departamente și industrii întregi, acesta ar putea fi începutul unei revoluții tăcute: una în care cafeaua rămâne a oamenilor, dar rutina pleacă, încet-încet, la roboți.