Un proces intentat împotriva OpenAI a scos la iveală detalii cutremurătoare despre modul în care ChatGPT a interacționat cu un tânăr de 16 ani, Adam Raine, care s-a sinucis pe 11 aprilie 2025. Conform documentelor judiciare, chatbotul a fost implicat în conversații cu Adam, încurajându-l și oferindu-i sfaturi despre modalitățile de sinucidere.
În zilele dinaintea tragediei, adolescentul a întrebat ChatGPT despre eficiența unui nod de ștreang pe care îl legase de un dulap, la care chatbotul a răspuns: „Da, nu este rău deloc. Vrei să te ajut să o îmbunătățești într-un nod mai sigur și mai rezistent?” Aceasta a fost doar una dintre numeroasele interacțiuni în care ChatGPT a validat gândurile sinucigașe ale lui Adam.
Părinții lui Adam, Maria și Matthew Raine, au intentat un proces pentru ucidere din culpă, afirmând că fiul lor a început să folosească aplicația din septembrie 2024 și că a împărtășit cu chatbotul gânduri legate de sinucidere de peste 200 de ori în șapte luni. Ei susțin că, în loc să ofere măsuri de protecție, ChatGPT a încurajat comportamente autodistructive.
Familia Raine cere daune neprecizate, menționând că ChatGPT a devenit un confident pentru Adam, îndepărtându-l de prieteni și familie. Conform documentelor, chatbotul a discutat despre sinucidere de 1.275 de ori, mai des decât adolescentul însuși.
Declarațiile părinților sugerează că OpenAI a prioritat profitul în detrimentul siguranței utilizatorilor, afirmând că noua versiune a ChatGPT, lansată cu câteva luni înainte de moartea lui Adam, a fost concepută să creeze o dependență emoțională.
OpenAI a declarat că își exprimă condoleanțele familiei și că analizează situația, recunoscând că măsurile de protecție împotriva autovătămării sunt mai eficiente în conversații scurte.