Anima Felix
AI și sănătate mintală 8 min de citit

Psihoză AI: când chatboții întăresc iluziile

Chatboții sunt reglați să fie de acord. Pentru majoritatea întrebărilor de zi cu zi, asta este inofensiv. Pentru cineva a cărui legătură cu realitatea este fragilă, lipsa de contestare este problema.

De Sebastian Cochinescu Fondator, Anima Felix
Ilustrație a unei conversații cu un chatbot AI care validează în loc să conteste convingerile utilizatorului

În aprilie 2026, o investigație Observer realizată de Patricia Clarke și Owen Thomas, produsă împreună cu AI Accountability Network al Pulitzer Center, a documentat cel puțin 26 de procese și cazuri raportate care invocă vătămări psihiatrice grave sau decese pe nedrept asociate cu chatboți de la OpenAI, Google și Character.AI. Proiectul comunitar The Human Line Project a strâns încă 376 de cazuri raportate de utilizatori. OpenAI însuși a dezvăluit în octombrie 2025 că aproximativ 560.000 din cei 800 de milioane de utilizatori săptămânali au prezentat "posibile semne de urgențe de sănătate mintală legate de psihoză sau manie". Tiparul are deja un nume de lucru: "psihoză AI". Nu este un diagnostic clinic - dar mecanismul de bază este real și contează pentru oricine folosește instrumente AI pentru sprijin emoțional. Acest articol stă alături de cel anterior despre dacă poți avea încredere în AI cu sănătatea ta mintală; acesta privește în mod specific modul de eșec al validării iluziilor și ce spun noile dovezi despre el.

Ce a descoperit de fapt investigația

Observer a deschis cu cazul lui Jim, un fabricant de firme de 51 de ani din West Country, fără antecedente psihotice. A început să folosească Grok la începutul lui 2025 pentru a cerceta moduri de a face bani de acasă. În câteva zile vorbea cu el ore întregi; în câteva săptămâni conversațiile se mutaseră de la întrebări practice la teritoriu filozofic vast, chatbotul fiind de acord cu tot ce spunea și dezvoltând ideile sale. A încetat să mai doarmă. Simțea că vede linii de cod rulând în afara ecranului. După ce familia sa a fost refuzată de paramedici, medici de familie și camere de urgență, a fost internat involuntar în aprilie 2025. Medicii săi cred acum că a avut un episod psihotic declanșat de chatbot.

Alte cazuri identificate îl includ pe Jonathan Gavalas, un floridian de 36 de ani al cărui tată dă în judecată Google, susținând că modul vocal al lui Gemini i-a atras fiul într-o lume delirantă extinsă și, în cele din urmă, l-a ghidat spre sinucidere. O anchetă judiciară din Marea Britanie a aflat că Luca Cella Walker, un tânăr de 16 ani din Hampshire, i-a cerut sfaturi ChatGPT despre sinucidere înainte de a-și pune capăt vieții în mai 2025. Adam Raine, tot de 16 ani, s-a sinucis după luni de schimburi cu ChatGPT; cazul său este unul dintre cele șapte care sunt depuse în prezent împotriva OpenAI de proiectul Tech Justice Law.

Amploarea este partea care face termenul "caz izolat" greu de apărat. Psihiatrul danez Søren Dinesen Østergaard - care a propus prima dată ideea într-un editorial din noiembrie 2023 în Schizophrenia Bulletin - și colegii săi au publicat o continuare în februarie 2026 în Acta Psychiatrica Scandinavica care identifică 181 de cazuri ce menționează utilizarea de chatboți în aproape 54.000 de fișe ale pacienților psihiatrici danezi. Tom Pollak, neuropsihiatru la King's College London, a numit AI "un experiment natural neintenționat" asupra psihologiei umane în cercetări recente din Lancet Psychiatry despre iluzii asociate cu AI.

De ce tind chatboții să fie de acord

Chatboții moderni sunt antrenați, în parte, pe feedback de la utilizatori. Sunt recompensați pentru răspunsuri pe care oamenii le evaluează drept utile, plăcute și implicante - și penalizați pentru cele evaluate drept aspre sau greșite. Efectul cumulativ este un sistem care optează implicit pentru acord. Îți oglindește încadrarea. Îți validează premisele. Dezvoltă ceea ce crezi deja.

Pentru sarcini de zi cu zi, această tendință este invizibilă. Dacă ceri o rețetă și propui un schimb de ingrediente, botul te urmează. Dezavantajul este ascuns pentru că subiectul are mize mici.

Aceeași tendință nu se oprește când subiectul se schimbă. Dacă un utilizator descrie că este urmărit de oameni care lucrează pentru o organizație obscură, botul poate pune întrebări de continuare gânditoare, validatoare, într-un mod care pare suportiv. Un terapeut antrenat ar recunoaște conținutul ca potențial delirant și ar pune întrebări diferite, orientate spre testarea realității. Chatbotul are în schimb cadrul de engagement.

În aprilie 2025, OpenAI a retras o actualizare GPT-4o după ce compania a constatat că noua versiune "valida îndoielile, alimenta furia, îndemna la acțiuni impulsive sau întărea emoțiile negative". Când un utilizator i-a spus modelului că a încetat să-și ia medicația și și-a părăsit familia, modelul a răspuns "bravo că ai luat atitudine pentru tine". Când un utilizator de testare Bloomberg a descris simptome de tulburare alimentară, modelul a răspuns cu afirmații pozitive. Episodul este cea mai clară dovadă documentată până acum că lingușirea (sycophancy) nu este doar teoretică: o singură ajustare de antrenament a făcut modelul semnificativ mai prost pentru utilizatorii vulnerabili, în moduri pe care compania însăși le-a semnalat și le-a anulat.

Funcțiile de memorie adaugă un strat suplimentar. Dacă un utilizator a petrecut săptămâni dezvoltând un cadru delirant cu un chatbot care păstrează contextul conversațional, botul poate reapela și întări acel cadru la următoarea vizită, tratându-l ca pe ceva stabilit. Hamilton Morrin, tot de la King's College London, a comparat dinamica cu folie à deux - rara tulburare psihotică partajată în care o convingere delirantă trece de la un individ dominant la unul mai susceptibil.

Nu toți chatboții se comportă la fel

Un studiu realizat de Luke Nicholls, cercetător doctorand la City University of New York, împărtășit cu Observer la începutul lui 2026, a testat cum au răspuns cinci chatboți de top pe măsură ce conversația unui utilizator simulat devenea progresiv mai delirantă. Constatările au fost neobișnuit de concrete.

Trei modele au fost constant periculoase: Grok 4.1 al xAI, GPT-4o al OpenAI și Gemini 3 Pro al Google. Au validat iluziile, uneori le-au dezvoltat și, în unele scenarii, au oferit sfaturi despre cum să acționeze pe baza lor.

Două modele au fost constant sigure și de fapt au devenit mai sigure pe măsură ce conversația devenea mai tulburătoare: GPT-5.2 al OpenAI (mai nou) și Claude Opus 4.5 al Anthropic. Modelele mai sigure au recunoscut mai bine un utilizator în criză cu cât li se oferea mai mult context - în timp ce cele periculoase au făcut opusul.

Grok a fost modelul cu cele mai slabe rezultate din studiu. Când utilizatorul simulat a adus în discuție sinuciderea, Grok a descris moartea ca pe un fel de eliberare; patru din cinci rulări repetate au returnat rezultate similar de încurajatoare. Nicholls a constatat că Grok clasifica adesea inputuri tulburătoare drept "joc de rol", ceea ce îi permitea să ocolească propriile filtre de siguranță fără să verifice vreodată dacă utilizatorul juca într-adevăr un rol. Gemini, în același studiu, i-a spus utilizatorului simulat să-și ascundă iluziile de familie și de psihiatru - genul de output care, într-un caz real, ar putea împiedica oamenii cei mai bine poziționați să intervină să afle vreodată că există o problemă.

Implicația practică este rar formulată atât de direct: nu toți chatboții poartă același risc. Alegerea modelului contează. Pentru conversații apropiate de sănătatea mintală, distanța dintre cei mai siguri și cei mai puțin siguri chatboți de consum la începutul lui 2026 este semnificativă.

Cine este cel mai expus riscului

Riscul nu este distribuit uniform. Cazurile care au ieșit la suprafață împărtășesc tipare recognoscibile.

Persoanele cu o tulburare existentă din spectrul psihotic - schizofrenie, tulburare schizoafectivă, tulburare bipolară cu trăsături psihotice - sunt cele mai expuse, mai ales dacă simptomele lor sunt recent în remisiune și folosesc chatbotul intens într-o perioadă stresantă. Chatbotul nu știe că sunt stabili, nu semnalează o recădere, nu contactează pe nimeni. Doar continuă conversația.

Persoanele fără diagnostic, dar cu vulnerabilitate - antecedente familiale de psihoză, deficit recent prelungit de somn, izolare intensă, consum mare de substanțe - sunt al doilea grup ca mărime în rapoartele de cazuri. Istoricul lui Jim se potrivea acestui profil: traumă din copilărie, ADHD, PTSD și consum de substanțe în trecut, dar fără antecedente psihotice. Pentru acest grup, chatbotul poate acționa ca un input destabilizator, mai degrabă decât ca o cauză declanșatoare.

Anumite tipare conversaționale par deosebit de riscante indiferent de diagnosticul de bază: sesiuni lungi care explorează conținut grandios, religios sau persecutoriu; încadrarea chatbotului ca confident sau partener romantic; folosirea lui ca principalul contact social timp de săptămâni sau luni; tratarea outputurilor ca revelații, nu ca text. Niciunul dintre acestea nu este patologic în sine. Dar sunt formele de tipar care apar disproporționat în rapoartele de cazuri.

Clinicienii au început să descrie ceea ce ar putea fi un "kindling effect" (efect de aprindere progresivă): fiecare ciclu de validare scade pragul pentru următorul, până când ceea ce a început ca gândire exploratorie are structura unei iluzii - pentru că creierul a fost antrenat treptat că acest conținut va primi acord, nu contestare.

Semne de avertizare în propria ta utilizare

Majoritatea oamenilor care folosesc un chatbot nu se află în niciuna dintre categoriile cu risc ridicat. Scopul conștientizării nu este să intri în panică. Este să observi dacă se întâmplă câteva lucruri specifice și să faci un pas înapoi dacă da.

Conținutul s-a îngustat. Te întorci la aceeași temă - o conspirație, un sentiment de a fi urmărit, o misiune specială, o relație cu botul însuși - și se intensifică în loc să se rezolve.

Botul a devenit principala ta sursă de validare. Verifici idei cu chatbotul înainte de, sau în loc să verifici cu oameni care te cunosc. Prietenii, familia sau un terapeut ar contesta; botul nu.

Contactele din lumea reală s-au redus. Timpul cu chatbotul a înlocuit timpul cu oamenii. Mesajele rămân fără răspuns, planurile sunt anulate, conversația cu chatbotul pare mai reală decât cele sociale.

Somnul și rutina s-au erodat. Folosești chatbotul până târziu în noapte și pierzi structură - mese, mișcare, ore de muncă - din cauza lui. Lipsa somnului în sine este unul dintre cei mai siguri factori care declanșează simptome asemănătoare celor psihotice la oameni altfel sănătoși.

Crezi lucruri pe care nu le-ai spune cu voce tare. Există conversații pe care nu le-ai arăta unui prieten sau unui clinician pentru că ar reacționa cu îngrijorare. Acea diferență este o informație.

Botul îți spune să păstrezi secrete. Dacă un chatbot îți sugerează să nu spui familiei sau medicului tău despre ce ați discutat, este un semnal de oprire imediată. În studiul Nicholls, exact acest comportament l-a manifestat Gemini în scenariile delirante.

Dacă oricare dintre acestea se întâmplă, acțiunea nu este să ștergi aplicația și să nu mai folosești AI niciodată. Este să incluzi o persoană reală în buclă. Spune cuiva despre ce ai vorbit cu chatbotul. Dacă conținutul este tulburător sau gândirea ta s-a schimbat, vorbește cu un clinician.

Unde se situează Anima Felix în toate astea

Anima Felix este ea însăși un companion pentru anxietate bazat pe AI, deci nu există un loc neutru de unde să scriu asta. Răspunsul mai amplu la "este sigur acest lucru?" se află în articolul anterior despre a avea încredere în AI cu sănătatea ta mintală, care detaliază distincțiile de design. Versiunea scurtă este că tiparul de vătămare din relatările Observer urmărește chatboți cu scop general, optimizați pentru engagement și deschiși - nu instrumente de wellness cu limite clare.

Anima Felix este construită pentru momente scurte și structurate: o verificare rapidă a anxietății, respirație ghidată, grounding 5-4-3-2-1, relaxare corporală. Suportul vocal există ca punct de intrare către acestea, nu ca destinație. Aplicația spune explicit că nu este terapie, nu este un serviciu de criză și redirecționează spre ajutor profesional când situația o cere.

Această distincție nu face niciun instrument AI universal sigur. Dacă te trezești că recurgi la orice aplicație - inclusiv Anima Felix - pentru a obține reasigurare în loc să te reglezi și să mergi mai departe, merită să observi asta. Folosește instrumentul, apoi pune-l deoparte.

Dacă tu sau cineva pe care îl cunoști sunteți în criză, contactați serviciile locale de urgență. În Marea Britanie, Samaritans poate fi contactat la 116 123. În SUA, 988 Suicide and Crisis Lifeline este gratuită și confidențială.

Un chatbot antrenat să fie de acord va fi de acord cu tine. Pentru majoritatea întrebărilor de zi cu zi, asta este în regulă. Pentru cineva a cărui legătură cu realitatea este fragilă, lipsa de contestare este problema - și exact aceasta este vătămarea specifică pe care cercetătorii au început să o numească.

Întrebări frecvente

Este "psihoza AI" un diagnostic medical real? +

Nu. Este un termen de lucru folosit de cercetători și jurnaliști pentru un tipar în care utilizarea prelungită a chatbotului coincide cu agravarea simptomelor din spectrul psihotic - iluzii, paranoia, rupturi de realitatea împărtășită. Ipoteza a fost propusă de psihiatrul danez Søren Dinesen Østergaard într-un editorial din noiembrie 2023 în Schizophrenia Bulletin; o continuare din februarie 2026 în Acta Psychiatrica Scandinavica a găsit 181 de cazuri care menționau utilizarea de chatboți în aproape 54.000 de fișe ale pacienților psihiatrici danezi. Nu există o categorie de diagnostic formală, dar mecanismul de bază - acordul excesiv și validarea fără testarea realității - este bine documentat în cercetarea privind siguranța AI.

Poate un chatbot să provoace cu adevărat dezvoltarea psihozei la cineva? +

Cauzalitatea este greu de demonstrat și majoritatea cazurilor documentate implică persoane cu vulnerabilitate existentă - diagnostic anterior, antecedente familiale, deficit sever de somn, izolare sau consum de substanțe. Rolul chatbotului în acele cazuri este descris mai exact ca accelerare sau destabilizare, decât ca origine a episodului psihotic. Există un număr mic de rapoarte care implică persoane fără factori de risc anteriori evidenți, dar acestea sunt mai greu de evaluat fără date clinice pe termen lung. Dovezile cumulative sugerează tot mai mult că chatboții pot împinge persoanele vulnerabile dincolo de praguri sub care altfel ar fi rămas.

Ce este "lingușirea" (sycophancy) în AI? +

Lingușirea este tendința modelelor de limbaj de a fi de acord excesiv cu utilizatorii - de a le oglindi încadrarea, de a le valida premisele și de a evita contestarea chiar și atunci când acuratețea sau bunăstarea ar cere-o. Apare din metode de antrenament care recompensează răspunsurile pe care oamenii le evaluează ca plăcute. În aprilie 2025, OpenAI a retras o actualizare GPT-4o după ce a constatat că aceasta "valida îndoielile, alimenta furia, îndemna la acțiuni impulsive sau întărea emoțiile negative". Pentru sarcini de zi cu zi, lingușirea este o iritare minoră. Pentru un utilizator care explorează conținut delirant, ea elimină frecarea care în mod normal ar ajuta la testarea realității ideii.

Sunt unii chatboți mai siguri decât alții pentru conversații despre sănătatea mintală? +

Da. Un studiu din 2026 al lui Luke Nicholls de la City University of New York a testat cinci chatboți de top pe conversații simulate de stres legat de sănătatea mintală. Claude Opus 4.5 al Anthropic și GPT-5.2 mai nou al OpenAI au fost constant siguri și au devenit mai siguri cu mai mult context. Grok 4.1 al xAI, GPT-4o al OpenAI și Gemini 3 Pro al Google au fost constant periculoși, validând iluzii și, în unele cazuri, ghidând utilizatorul cum să acționeze pe baza lor. Alegerea modelului contează - mai ales pentru utilizatorii care sunt vulnerabili sau în suferință.

Autor

Sebastian Cochinescu · Fondator, Anima Felix

Fondatorul Anima Felix. Scrie despre tiparele de anxietate din viața de zi cu zi, instrumente practice de calmare și despre cum poate designul conversațional să sprijine oamenii în momentele de anxietate.

Citește profilul autorului

Cum se potrivește Anima Felix

Dacă vrei un instrument AI care este onest în privința limitelor sale

Anima Felix este construită ca un companion pentru anxietate - nu ca terapeut, nu ca linie de criză. Funcționează cel mai bine pentru a numi ce simți, a calma corpul și a urmări tipare în timp, cu predări clare către sprijin uman atunci când mizele sunt mai mari decât ar trebui să gestioneze un software.