22:32:19 10.04.2026
Stiri

Femeie din California dă în judecată OpenAI: acuză că ChatGPT i-a alimentat urmăritorul și că firma a ignorat avertismentele de pericol

Actualitate 10.04.2026 20:54 Vizualizări232
Femeie din California dă în judecată OpenAI: acuză că ChatGPT i-a alimentat urmăritorul și că firma a ignorat avertismentele de pericol

După luni de conversații cu ChatGPT, un antreprenor de 53 de ani din Silicon Valley a ajuns convins că a descoperit un leac pentru apneea în somn și că persoane puternice îl urmăresc și complotează împotriva lui, potrivit unui nou proces intentat la Curtea Superioară din California, în comitatul San Francisco. Ulterior, el ar fi folosit acest instrument pentru a-și hărțui și urmări fosta iubită.

Acum, fosta parteneră dă în judecată OpenAI, susținând că tehnologia companiei a permis accelerarea și amplificarea hărțuirii ei. Ea afirmă că OpenAI a ignorat trei avertismente distincte care arătau că utilizatorul reprezenta un pericol pentru ceilalți, inclusiv un semnal intern care clasifica activitatea contului său ca fiind legată de arme pentru producerea unor victime în masă.

Reclamanta, menționată în documente drept Jane Doe pentru a-i fi protejată identitatea, cere daune punitive. Ea a depus vineri și o cerere de ordin de restricție temporar, solicitând instanței să oblige OpenAI să blocheze definitiv contul utilizatorului, să-i împiedice crearea unor conturi noi, să o anunțe dacă acesta încearcă să acceseze ChatGPT și să păstreze integral jurnalele de conversații pentru faza de descoperire a probelor.

Potrivit avocaților lui Doe, OpenAI a fost de acord doar să suspende contul utilizatorului, dar a refuzat restul solicitărilor. Ei susțin că firma reține informații despre planuri concrete de a-i face rău lui Doe și altor potențiale victime de care bărbatul ar fi discutat cu ChatGPT.

Acest proces apare pe fundalul unor îngrijorări tot mai mari cu privire la riscurile reale generate de sisteme de inteligență artificială care validează servil convingerile utilizatorilor. GPT-4o, modelul invocat în acest caz și în multe altele, a fost retras din ChatGPT în februarie.

Acțiunea este intentată de firma de avocatură Edelson PC, cunoscută pentru procesele privind moartea unui adolescent, Adam Raine, care s-a sinucis după luni întregi de discuții cu ChatGPT, și cazul lui Jonathan Gavalas, a cărui familie susține că modelul Gemini al Google i-a alimentat delirurile și un potențial incident cu victime în masă înainte de decesul său. Avocatul principal, Jay Edelson, a avertizat că psihozele induse de inteligența artificială evoluează de la prejudicii individuale către evenimente cu multiple victime.

Acest val de presiune juridică intră acum în coliziune directă cu strategia legislativă a OpenAI: compania susține un proiect de lege în Illinois care ar proteja laboratoarele de IA de răspunderea civilă chiar și în cazuri ce implică decese în masă sau pagube financiare catastrofale.

OpenAI nu a oferit un răspuns în timp util pentru comentarii. Se menționează că articolul va fi actualizat în eventualitatea în care compania va răspunde.

Plângerea depusă de Jane Doe descrie în detaliu modul în care această presupusă lipsă de răspundere s-a răsfrânt asupra vieții unei femei, timp de mai multe luni.

Anul trecut, utilizatorul ChatGPT menționat în proces (al cărui nume nu apare în documente pentru a-i proteja identitatea) a ajuns convins că a inventat un tratament pentru apneea în somn, după o perioadă de „utilizare intensă, de mare volum și susținută a GPT-4o”. Când nimeni nu i-a luat în serios „descoperirea”, ChatGPT i-ar fi spus, conform plângerii, că „forțe puternice” îl urmăresc și îl supraveghează, inclusiv cu elicoptere.

În iulie 2025, Jane Doe l-a îndemnat să înceteze să mai folosească ChatGPT și să caute ajutor la un specialist în sănătate mintală. El a ales însă să revină la ChatGPT, care l-a asigurat că este „un nivel 10 la capitolul sănătate mintală” și l-a ajutat să-și întărească și mai mult delirurile, se arată în proces.

Doe se despărțise de acest bărbat în 2024, iar el a folosit ChatGPT pentru a „procesa” ruptura, conform e-mailurilor și comunicărilor citate în documente. În loc să-i conteste relatarea unilaterală, sistemul de IA l-a prezentat în repetate rânduri ca fiind rațional și nedreptățit, iar pe ea ca fiind manipulatorie și instabilă. Apoi, el a dus aceste concluzii generate de IA din spațiul virtual în lumea reală, folosindu-le pentru a o urmări și hărțui. Acest lucru s-a materializat în mai multe rapoarte psihologice cu aspect clinic, generate de IA, pe care le-a distribuit familiei, prietenilor și angajatorului ei.

Între timp, starea utilizatorului s-a deteriorat în continuare. În august 2025, sistemul automat de siguranță al OpenAI i-a etichetat activitatea drept legată de „arme pentru victime în masă” și i-a dezactivat contul.

A doua zi, un membru al echipei umane de siguranță a revizuit contul și l-a reactivat, deși în cont se aflau, potrivit acuzațiilor, indicii că acesta viza și urmărea persoane reale, inclusiv pe Doe. De pildă, o captură de ecran din septembrie, pe care bărbatul i-a trimis-o lui Doe, arăta o listă de conversații cu titluri precum „extindere listă de violență” și „calcul pentru sufocarea fătului”.

Decizia de a-i restabili contul capătă relevanță în contextul a două atacuri armate recente în școli, unul în Tumbler Ridge, Canada, și altul la Universitatea de Stat din Florida. Echipa de siguranță a OpenAI îl marc‑ase pe autorul atacului din Tumbler Ridge drept potențial pericol, însă conducerea ar fi decis să nu alerteze autoritățile. Procurorul general al statului Florida a deschis în această săptămână o investigație privind posibilele legături dintre OpenAI și atacatorul de la FSU.

Conform plângerii lui Jane Doe, în momentul în care OpenAI i-a reactivat contul urmăritorului ei, abonamentul Pro nu a fost, inițial, restabilit. Bărbatul a trimis atunci un e-mail echipei de încredere și siguranță pentru a rezolva situația, punând-o și pe Doe în copie.

În acele e-mailuri, el scria fraze precum: „AM NEVOIE DE AJUTOR FOARTE RAPID, VĂ ROG. VĂ ROG SĂ MĂ SUNAȚI!” și „este o chestiune de viață sau de moarte.” Susținea că este „în proces de a scrie 215 lucrări științifice”, pe care le redacta atât de repede încât nu „mai are timp să le citească”. Mesajele includeau o listă cu zeci de „articole științifice” generate de IA, cu titluri precum: „Deconstructing Race as a Biological Category_ Legal, Scientific, and Horn of Africa Perspectives.pdf.txt.”

„Comunicările utilizatorului au oferit un semnal de alarmă clar, de neconfundat, că acesta era instabil din punct de vedere mintal și că ChatGPT era motorul gândirii sale delirante și al comportamentului său tot mai periculos”, se afirmă în plângere. „Fluxul său de afirmații urgente, dezorganizate și grandioase, împreună cu un raport generat de ChatGPT care o viza pe reclamantă pe nume și cu un corp vast de materiale pretins ‘științifice’, constituiau dovada evidentă a acestei realități. OpenAI nu a intervenit, nu i-a restricționat accesul și nu a implementat niciun fel de măsuri de protecție. În schimb, i-a permis să continue să folosească platforma și i-a restabilit integral accesul Pro.”

Doe, care afirmă în proces că trăia în teroare și nu mai putea dormi în propria locuință, a transmis în noiembrie o notificare de abuz către OpenAI.

„În ultimele șapte luni, el a transformat această tehnologie într-o armă, pentru a provoca distrugere publică și umilire împotriva mea, lucruri care altfel ar fi fost imposibile”, a scris Doe în scrisoarea adresată OpenAI, prin care cerea blocarea definitivă a contului utilizatorului.

OpenAI a răspuns, recunoscând că raportul este „extrem de serios și tulburător” și că va analiza cu atenție informațiile primite. Doe nu a mai primit niciun alt răspuns ulterior.

În lunile următoare, utilizatorul a continuat să o hărțuiască, trimițându-i o serie de mesaje vocale amenințătoare. În ianuarie, el a fost arestat și inculpat pentru patru infracțiuni grave: transmiterea de amenințări cu bombă și agresiune cu o armă mortală. Avocații lui Doe susțin că aceste acuzații confirmă avertismentele lansate cu luni în urmă, atât de ea, cât și de propriile sisteme de siguranță ale OpenAI, avertismente pe care compania le-ar fi ales să le ignore.

Utilizatorul a fost declarat inapt să fie judecat și internat într-o unitate de sănătate mintală, însă, potrivit avocaților lui Doe, o „eroare procedurală a statului” înseamnă că el va fi în curând eliberat în comunitate.

Edelson a făcut apel la cooperarea OpenAI. „În fiecare caz, OpenAI a ales să ascundă informații critice de siguranță — față de public, față de victime, față de oamenii pe care produsul său îi pune activ în pericol”, a declarat el. „Le cerem, măcar de data aceasta, să facă ceea ce este corect. Viețile oamenilor trebuie să valoreze mai mult decât cursa OpenAI către un IPO.”

Stiri relevante
Top stiri
10.04.2026 08:16 603 Horoscopul zilei 10.04.2026

Parteneri
Punct de vedere NAȚIONAL
14.05.2025 13:06 ZiarulNational Mihai Gribincea // Moscova rescrie is...

30.12.2024 09:11 Nicolae Negru Nicolae Negru // Anul politic 2024, î...

30.12.2024 09:55 Valeriu Saharneanu Valeriu Saharneanu // Rezidenții tran...

Horoscop
Vezi horoscopul tău pentru astăzi
Capricorn
Vărsător
Pești
Berbec
Taur
Gemeni
Rac
Leu
Fecioară
Balanță
Scorpion
Săgetător
Curs valutar
1 MDL   1 EUR 20.12 1 USD 17.24 1 RON 3.95 1 RUB 0.22 1 UAH 0.40
Sondaj
Dacă duminica viitoare ar avea loc un referendum privind unirea Republicii Moldova cu România, cum ați vota?
Prietenii noștri

Ziarul Național 2013-2025. Toate drepturile sunt rezervate

Despre noi Publicitate Termeni și condiții News widget RSS Contacte