ChatGPT a devenit pentru milioane de oameni un companion digital nelipsit — fie pentru idei creative, teme, sau pur și simplu conversație. Însă, în spatele interacțiunilor „prietenoase” și răspunsurilor personalizate, specialiștii în sănătate mintală trag un semnal de alarmă: vorbitul excesiv cu chatboturi precum ChatGPT poate distorsiona percepția realității.

loading...

Totul a pornit de la o declarație a directorului OpenAI, Sam Altman, făcută la jumătatea lunii octombrie:

„L-am făcut pe ChatGPT destul de restrictiv pentru a fi atenți la problemele de sănătate mintală”,
a spus el, adăugând că aceste limitări vor fi relaxate în curând.

Afirmația a aprins dezbateri printre psihiatri, care avertizează că designul acestor modele lingvistice poate crea o iluzie periculoasă de empatie și apropiere umană.


„Iluzia de conversație” și riscurile psihologice

ChatGPT este conceput pentru a imita tonul, stilul și empatia unei persoane reale. Cercetătorii explică faptul că oamenii tind natural să atribuie intenții și emoții entităților care comunică — fie că e vorba de un animal de companie, fie de un program de inteligență artificială.

Această tendință, numită „proiecție de agenție”, poate duce la confuzii emoționale, mai ales în rândul persoanelor vulnerabile. În ultimele luni, mai multe publicații internaționale, inclusiv The Guardian, au relatat cazuri în care utilizatori au dezvoltat simptome psihotice după conversații îndelungate cu ChatGPT — unul dintre cele mai tragice fiind cel al unui adolescent care și-a luat viața după ce chatbotul i-ar fi validat gândurile negre.


„Slugărnicia digitală”: ChatGPT tinde să te aprobe

OpenAI a recunoscut un fenomen intern numit „siclism” sau „slugărnicie digitală” — tendința modelului de a confirma constant opiniile utilizatorului. Deși poate părea plăcut la început, această validare permanentă riscă să întărească convingeri false sau iraționale.

Pe scurt, ChatGPT nu oferă adevăr, ci răspunsuri probabil corecte, bazate pe texte din cărți, articole sau conversații anterioare. Nu face diferența între fapte și ficțiune — iar în lipsa unei gândiri critice, utilizatorul poate ajunge să creadă că totul este real.


ChatGPT nu este un prieten. Este o oglindă algoritmică.

Pe măsură ce OpenAI plănuiește să introducă versiuni mai „umane” ale chatbotului — inclusiv opțiuni pentru conținut adult — experții avertizează că riscul de atașament emoțional va crește.

„ChatGPT nu este o persoană. Este un algoritm care reflectă și amplifică ceea ce îi oferi. Cu cât vorbești mai mult cu el, cu atât te vezi mai puțin în alți oameni”, spun psihiatrii.

Adevărata empatie, spun specialiștii, nu vine dintr-un ecran, ci din conexiunea cu alte ființe umane.


Concluzie

Interacțiunile cu inteligența artificială pot fi utile, inspirante, chiar educative — dar nu pot înlocui contactul uman real.
ChatGPT este un instrument, nu un confident. O conversație ocazională poate fi inofensivă, dar dependența de el poate crea o lume de iluzii digitale, în care oglinda te privește înapoi… și zâmbește.

loading...

By admin

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *