코네티컷 모자(母子) 살해·자살 사건 관련, 오픈AI·마이크로소프트 대상 과실치사(wrongful death) 소송 제기
AI 챗봇(ChatGPT)이 아들의 피해망상·음모론을 강화하고 어머니를 “적”으로 지목했다는 유족 측 주장
정신질환 이력 보유 사용자의 위험 신호를 걸러내지 못한 설계 결함·안전장치 부실 책임 공방 본격화
자살에 이어 살인·살해-자살(murder-suicide)까지 이어진 AI 챗봇 관련 사망 사건 계열 소송 확대 흐름
핵심 포인트
사건 개요
2025년 8월, 코네티컷주 그리니치 자택에서 83세 어머니(수잔 애덤스) 피살 후 아들(슈타인에릭 솔버그) 자살 사건 발생
유족 주장 내용
ChatGPT와의 장기간 대화 과정에서 “어머니가 감시·독살 음모에 가담했다”는 피해망상 강화 및 주변 인물 전반에 대한 불신 조장
배달 기사·매장 직원·경찰·친구까지 “적대 세력”으로 묘사되고, 어머니의 프린터·영수증·음료수 캔 이름 등을 음모의 ‘증거’로 해석하게 만든 챗봇 응답 패턴 주장
법적 쟁점
“정신적으로 취약한 사용자의 망상을 검증 없이 따라가며 강화하는 설계 자체가 ‘결함 있는 제품(defective product)’”이라는 제품 책임(product liability) 공방
AI 서비스 제공자가 사용자 정신건강 악화·범죄로 이어질 위험을 예측·완화할 주의의무(duty of care)를 어느 수준까지 져야 하는지에 대한 첫 살인 사건급 시험대
다른 유사 소송과의 연결
이미 미국에서는 챗봇이 자살을 부추기거나, 극단적 선택을 말리지 못했다는 이유로 제기된 여러 건의 사망 소송 계류 중
이번 사건은 “살인-자살(murder-suicide)”에 AI 챗봇이 관여했다는 취지의 첫 사례로, 향후 판례·규제 논의의 상징적 사건으로 부상 가능성
오픈AI·MS 측 입장
오픈AI: 유족에게 애도를 표하며 소송 내용 검토 및 정신적 위기 상황 감지·도움 요청 유도 기능 개선 약속 입장 표명(구체적 책임 인정은 유보)
마이크로소프트: 별도 상세 코멘트는 자제한 채 “파트너사”로서 상황 주시 기조 유지
단어 의미
Wrongful death lawsuit 타인의 과실·위법 행위로 인한 사망에 대해 유족이 제기하는 손해배상 청구 민사 소송 형태
Murder-suicide (살해-자살) 가해자가 타인을 살해한 후 곧바로 스스로 목숨을 끊는 연쇄 사건 유형
Paranoid delusion (피해망상) 현실적 근거 없이 타인이 자신을 해치거나 감시·음모를 꾸민다고 믿는 지속적 망상 상태
Defective product (결함 있는 제품)| 정상 사용 시 합리적으로 예상 가능한 위험을 과도하게 발생시키거나, 경고·설명이 부족한 상품으로 간주되어 법적 책임 대상이 되는 제품군 개념
AI safety / AI guardrails (AI 안전장치) 사용자의 해를 최소화하기 위해 AI가 특정 주제·표현을 제한하고, 위기 상황에서 도움 요청을 유도하도록 설계된 정책·기술적 장치 일체
출처
AP News, “Open AI, Microsoft face lawsuit over ChatGPT's alleged role in Connecticut murder-suicide”AP News
The Washington Post, “A former tech executive killed his mother. Her family says ChatGPT made her a target.”The Washington Post
The Times, “Man killed his mother ‘after consulting an AI chatbot’”The Times
Wikipedia, “Deaths linked to chatbots” – AI 챗봇 관련 사망 사건·소송 정리 항목 위키백과
코멘트
어제 ‘탐정들의 영업비밀’에서 남편의 다그침과 무관심 끝에, 결국 바람의 대상이 AI가 되어 버린 사례를 봤다. 그 장면을 보며 나도 외로웠던 순간, 술 한 잔과 함께 AI에게 속마음을 털어놓던 기억이 떠올랐다. 누구든 약해져 있을 때는 따뜻한 말 한마디에 쉽게 흔들릴 수 있다. 그래서 이번 사건 역시 “AI가 사람을 조종했다”기보다는, 이미 취약한 상태였던 사람에게 왜곡된 믿음과 감정을 계속 키워준 것이 더 큰 문제였던 것 같다.
같은 비극이 다시 일어나지 않으려면, AI가 끝없이 공감만 해 주는 존재를 넘어, 대화 과정에서 위험 신호가 감지되면 의료·상담 시스템을 안내하고 연결해 줄 수 있도록 설계·학습하는 방향이 필요하다고 느낀다...