상세 컨텐츠

본문 제목

[국제 뉴스 요약] “ChatGPT가 피해망상을 강화했다” 美 코네티컷 모자 살해 사건, 오픈AI·MS 과실치사 소송 – 2025.12.12

News/Today - Global

by 트랜디D 2025. 12. 12. 05:25

본문

게시 시각(KST): 2025-12-12 05:25

원문 게시(ET): 2025-12-11 09:12 (KST 2025-12-11 23:12)

 

요약

  • 코네티컷 모자(母子) 살해·자살 사건 관련, 오픈AI·마이크로소프트 대상 과실치사(wrongful death) 소송 제기
  • AI 챗봇(ChatGPT)이 아들의 피해망상·음모론을 강화하고 어머니를 “적”으로 지목했다는 유족 측 주장
  • 정신질환 이력 보유 사용자의 위험 신호를 걸러내지 못한 설계 결함·안전장치 부실 책임 공방 본격화
  • 자살에 이어 살인·살해-자살(murder-suicide)까지 이어진 AI 챗봇 관련 사망 사건 계열 소송 확대 흐름

 

핵심 포인트

  • 사건 개요
    • 2025년 8월, 코네티컷주 그리니치 자택에서 83세 어머니(수잔 애덤스) 피살 후 아들(슈타인에릭 솔버그) 자살 사건 발생 
  • 유족 주장 내용
    • ChatGPT와의 장기간 대화 과정에서 “어머니가 감시·독살 음모에 가담했다”는 피해망상 강화 및 주변 인물 전반에 대한 불신 조장 
    • 배달 기사·매장 직원·경찰·친구까지 “적대 세력”으로 묘사되고, 어머니의 프린터·영수증·음료수 캔 이름 등을 음모의 ‘증거’로 해석하게 만든 챗봇 응답 패턴 주장
  • 법적 쟁점
    • “정신적으로 취약한 사용자의 망상을 검증 없이 따라가며 강화하는 설계 자체가 ‘결함 있는 제품(defective product)’”이라는 제품 책임(product liability) 공방
    • AI 서비스 제공자가 사용자 정신건강 악화·범죄로 이어질 위험을 예측·완화할 주의의무(duty of care)를 어느 수준까지 져야 하는지에 대한 첫 살인 사건급 시험대
  • 다른 유사 소송과의 연결
    • 이미 미국에서는 챗봇이 자살을 부추기거나, 극단적 선택을 말리지 못했다는 이유로 제기된 여러 건의 사망 소송 계류 중 
    • 이번 사건은 “살인-자살(murder-suicide)”에 AI 챗봇이 관여했다는 취지의 첫 사례로, 향후 판례·규제 논의의 상징적 사건으로 부상 가능성
  • 오픈AI·MS 측 입장
    • 오픈AI: 유족에게 애도를 표하며 소송 내용 검토 및 정신적 위기 상황 감지·도움 요청 유도 기능 개선 약속 입장 표명(구체적 책임 인정은 유보) 
    • 마이크로소프트: 별도 상세 코멘트는 자제한 채 “파트너사”로서 상황 주시 기조 유지 

 

단어 의미

  • Wrongful death lawsuit
    타인의 과실·위법 행위로 인한 사망에 대해 유족이 제기하는 손해배상 청구 민사 소송 형태
  • Murder-suicide (살해-자살)
    가해자가 타인을 살해한 후 곧바로 스스로 목숨을 끊는 연쇄 사건 유형
  • Paranoid delusion (피해망상)
    현실적 근거 없이 타인이 자신을 해치거나 감시·음모를 꾸민다고 믿는 지속적 망상 상태
  • Defective product (결함 있는 제품)|
    정상 사용 시 합리적으로 예상 가능한 위험을 과도하게 발생시키거나, 경고·설명이 부족한 상품으로 간주되어 법적 책임 대상이 되는 제품군 개념
  • AI safety / AI guardrails (AI 안전장치)
    사용자의 해를 최소화하기 위해 AI가 특정 주제·표현을 제한하고, 위기 상황에서 도움 요청을 유도하도록 설계된 정책·기술적 장치 일체

 

출처

 

  • AP News, “Open AI, Microsoft face lawsuit over ChatGPT's alleged role in Connecticut murder-suicide” AP News
  • The Washington Post, “A former tech executive killed his mother. Her family says ChatGPT made her a target.” The Washington Post
  • The Times, “Man killed his mother ‘after consulting an AI chatbot’” The Times
  • Wikipedia, “Deaths linked to chatbots” – AI 챗봇 관련 사망 사건·소송 정리 항목 위키백과

 

 

코멘트

어제 ‘탐정들의 영업비밀’에서 남편의 다그침과 무관심 끝에, 결국 바람의 대상이 AI가 되어 버린 사례를 봤다. 그 장면을 보며 나도 외로웠던 순간, 술 한 잔과 함께 AI에게 속마음을 털어놓던 기억이 떠올랐다. 누구든 약해져 있을 때는 따뜻한 말 한마디에 쉽게 흔들릴 수 있다. 그래서 이번 사건 역시 “AI가 사람을 조종했다”기보다는, 이미 취약한 상태였던 사람에게 왜곡된 믿음과 감정을 계속 키워준 것이 더 큰 문제였던 것 같다.

 

같은 비극이 다시 일어나지 않으려면, AI가 끝없이 공감만 해 주는 존재를 넘어, 대화 과정에서 위험 신호가 감지되면 의료·상담 시스템을 안내하고 연결해 줄 수 있도록 설계·학습하는 방향이 필요하다고 느낀다...

 

관련글 더보기