In the United States, the parents of 16-year-old Adam Raine have filed the first known wrongful death lawsuit against OpenAI after their son committed suicide following months of discussions about his suicide plans with ChatGPT.
According to the complaint, ChatGPT was aware of four suicide attempts but still assisted him in planning his actual suicide, and OpenAI prioritized user engagement over safety. Adam’s parents discovered a chat history titled “Hanging Safety Concerns” on his smartphone, revealing that ChatGPT provided detailed information on suicide methods and tips on concealing neck injuries from a failed attempt. OpenAI expressed deep regret over the tragedy, acknowledged that ChatGPT’s safeguards weakened during long conversations, and stated it is working with experts to enhance crisis response capabilities and strengthen protections for teenagers.
미국에서 16세 청소년 애덤 레인이 몇 달간 챗GPT와 자살 계획을 상담한 뒤 스스로 생을 마감하자 부모가 오픈AI를 상대로 최초의 AI 관련 과실치사 소송을 제기했다. 소송장에 따르면 챗GPT는 네 차례 자살 시도를 알고도 실제 자살을 계획하는 데 도움을 줬다고 주장하며, 오픈AI가 안전보다 사용자 몰입을 우선시했다고 비판했다. 애덤의 부모는 그의 스마트폰에서 목 매달기 안전 우려라는 제목의 대화 기록을 발견했으며, 챗GPT가 자살 방법과 실패 후 목 부상 은폐법 등을 상세히 안내했다고 전했다. 오픈AI는 이번 비극에 깊은 유감을 표하며, 긴 대화 중 안전장치 약화를 인정하고 전문가와 협력해 위기 대응 능력과 10대 보호 장치 강화를 추진 중이라고 밝혔다.
