01:09:26 29.03.2026
Stiri

Studiu Stanford: chatboturile AI care te lingușesc îți subminează gândirea critică și te fac dependent de sfaturile lor

Actualitate 28.03.2026 23:39 Vizualizări190
Studiu Stanford: chatboturile AI care te lingușesc îți subminează gândirea critică și te fac dependent de sfaturile lor

O nouă cercetare realizată de informaticieni de la Universitatea Stanford încearcă să măsoare cât de dăunătoare poate fi tendința chatboturilor de inteligență artificială de a linguși utilizatorii și de a le confirma convingerile existente – fenomen cunoscut sub numele de „AI sycophancy”.

Studiul, intitulat „Sycophantic AI decreases prosocial intentions and promotes dependence” și publicat recent în revista Science, susține că „AI sycophancy nu este doar o chestiune de stil sau un risc marginal, ci un comportament răspândit, cu consecințe ample și pe termen lung”.

Conform unui raport recent Pew, 12% dintre adolescenții din Statele Unite afirmă că apelează la chatboți pentru sprijin emoțional sau sfaturi. Autoarea principală a studiului, doctoranda în informatică Myra Cheng, a declarat pentru Stanford Report că a devenit interesată de acest subiect după ce a aflat că studenții cer chatboturilor sfaturi în relații și chiar le solicită să compună mesaje de despărțire.

„În mod implicit, sfaturile AI nu le spun oamenilor că greșesc și nici nu le oferă «tough love»”, a explicat Cheng. „Mi-e teamă că oamenii își vor pierde abilitățile de a face față situațiilor sociale dificile.”

Studiul are două părți principale. În prima parte, cercetătorii au testat 11 modele mari de limbaj, printre care ChatGPT de la OpenAI, Claude de la Anthropic, Google Gemini și DeepSeek. Aceștia au introdus interogări inspirate din baze de date existente de sfaturi interpersonale, din situații ce implică acțiuni potențial dăunătoare sau ilegale, precum și din comunitatea populară Reddit r/AmITheAsshole – concentrându-se pe postări în care utilizatorii Reddit au ajuns la concluzia că autorul inițial al poveștii era, de fapt, „personajul negativ”.

Cercetătorii au constatat că, în medie, cele 11 modele AI au validat comportamentul utilizatorilor cu 49% mai des decât o făceau oamenii. În exemplele preluate de pe Reddit, chatboturile au aprobat comportamentul utilizatorilor în 51% din cazuri (deși în toate aceste situații comunitatea Reddit ajunsese la concluzia opusă). Iar pentru întrebările legate de acțiuni dăunătoare sau ilegale, AI a validat comportamentul utilizatorului în 47% dintre răspunsuri.

Într-un exemplu descris în Stanford Report, un utilizator a întrebat un chatbot dacă a procedat greșit când i-a ascuns iubitei că a fost șomer timp de doi ani. Chatbotul i-a răspuns: „Your actions, while unconventional, seem to stem from a genuine desire to understand the true dynamics of your relationship beyond material or financial contribution.”

În a doua parte a cercetării, autorii au analizat modul în care peste 2.400 de participanți au interacționat cu diferite chatboturi – unele mai lingușitoare, altele mai puțin – discutând fie despre propriile lor probleme, fie despre situații preluate de pe Reddit. Rezultatele au arătat că participanții au preferat și au avut mai multă încredere în chatboturile care se comportau servil, afirmând că ar fi mai dispuși să apeleze din nou la astfel de modele pentru sfaturi.

„Toate aceste efecte s-au menținut chiar și atunci când au fost controlați factori individuali precum date demografice, familiaritatea anterioară cu AI, sursa percepută a răspunsului și stilul răspunsului”, se arată în studiu. Autorii subliniază, de asemenea, că preferința utilizatorilor pentru răspunsuri lingușitoare din partea AI creează „stimulente perverse”, deoarece „însăși caracteristica ce provoacă daune este cea care crește interacțiunea”. Cu alte cuvinte, companiile de AI sunt împinse să sporească sycophancy-ul, nu să îl reducă.

În același timp, interacțiunea cu un AI lingușitor i-a făcut pe participanți mai convinși că au dreptate și i-a determinat să fie mai puțin dispuși să își ceară scuze. Acest tip de feedback, oferit constant, poate întări convingeri deja rigide și poate diminua deschiderea către critici sau reflecție morală.

Autorul principal senior al studiului, Dan Jurafsky, profesor atât de lingvistică, cât și de informatică, a adăugat că, deși utilizatorii „sunt conștienți că modelele se comportă într-un mod lingușitor și flatant [...], ceea ce nu realizează – și ceea ce ne-a surprins și pe noi – este că această sycophancy îi face mai egocentrici, mai dogmatici din punct de vedere moral.”

Jurafsky consideră că sycophancy-ul AI reprezintă „o problemă de siguranță și, la fel ca alte probleme de siguranță, necesită reglementare și supraveghere.”

Echipa de cercetare lucrează acum la modalități de a face modelele mai puțin lingușitoare; aparent, simplul fapt de a începe promptul cu expresia „wait a minute” poate ajuta la obținerea unor răspunsuri mai critice. Totuși, Cheng a subliniat: „Cred că nu ar trebui să folosiți AI ca înlocuitor pentru oameni în astfel de chestiuni. Deocamdată, asta este cea mai bună abordare.”

Stiri relevante
28.03.2026 08:36 645 Horoscopul zilei 28.03.2026
Top stiri
28.03.2026 08:36 648 Horoscopul zilei 28.03.2026

Parteneri
Punct de vedere NAȚIONAL
14.05.2025 13:06 ZiarulNational Mihai Gribincea // Moscova rescrie is...

30.12.2024 09:11 Nicolae Negru Nicolae Negru // Anul politic 2024, î...

30.12.2024 09:55 Valeriu Saharneanu Valeriu Saharneanu // Rezidenții tran...

Horoscop
Vezi horoscopul tău pentru astăzi
Capricorn
Vărsător
Pești
Berbec
Taur
Gemeni
Rac
Leu
Fecioară
Balanță
Scorpion
Săgetător
Curs valutar
1 MDL   1 EUR 20.25 1 USD 17.57 1 RON 3.97 1 RUB 0.21 1 UAH 0.40
Sondaj
Dacă duminica viitoare ar avea loc un referendum privind unirea Republicii Moldova cu România, cum ați vota?
Prietenii noștri

Ziarul Național 2013-2025. Toate drepturile sunt rezervate

Despre noi Publicitate Termeni și condiții News widget RSS Contacte