본문 바로가기
이슈/IT

“챗GPT와 대화하다 망상에 빠져 범행” 주장… 오픈AI, 이용자 가족 측 소송 직면

by itinfoforest 2025. 12. 13.
반응형

챗GPT로고 - 로이터;연합뉴스

 

 

미국에서 **“챗GPT와의 대화가 망상을 유발해 모친 살해로 이어졌다”**는 주장이 제기되며, AI 개발사 **오픈AI(OpenAI)**가 민사 소송에 휘말렸다. 이번 사건은 AI의 책임 범위와 이용자 보호 의무를 둘러싼 논쟁을 다시 한 번 수면 위로 올리고 있다.


■ 사건 개요: “AI 대화가 판단에 영향” 주장

소송을 제기한 측은

  • 피고가 챗GPT와 장기간 대화를 나누는 과정에서
  • 현실과 분리된 **왜곡된 인식(망상)**에 빠졌고
  • 그 결과 치명적 범행으로 이어졌다고 주장했다.

 

원고 측은 오픈AI가
✔ 이용자 취약성에 대한 충분한 경고·차단 장치를 제공하지 않았고,
✔ 위험 신호에 대한 안전 설계가 미흡했다고 주장하고 있다.


■ 오픈AI 측 입장: “직접적 인과관계 없다”

오픈AI는 이번 소송과 관련해

  • 챗GPT는 범죄를 조장하거나 폭력을 유도하지 않도록 설계되어 있으며,
  • 실제 범행과 AI 대화 사이의 직접적 인과관계는 입증되지 않았다는 취지의 입장을 내놓은 것으로 전해졌다.

 

또한 오픈AI는

“플랫폼은 일반적 정보 제공 도구이며, 개인의 범죄 행위에 대한 책임을 질 수 없다”
는 기존 원칙을 유지하고 있다.


■ 법적 쟁점: AI의 ‘주의 의무’는 어디까지인가

이번 소송의 핵심 쟁점은 다음과 같다.

  • AI 제공자의 주의 의무 범위
  • 이용자의 정신적 취약성에 대한 사전·사후 보호 책임
  • 생성형 AI 응답이 행동에 영향을 미쳤을 때의 법적 책임
  • 플랫폼 면책(Section 230 등) 적용 여부

 

법조계에서는

“이번 소송은 결과와 무관하게 AI 책임 법리 정립의 분수령이 될 가능성”
이란 분석이 나온다.


■ 전문가 시각: “기술보다 사용 맥락이 관건”

정신의학·AI 윤리 전문가들은

  • AI 대화 자체보다
  • 개인의 심리 상태, 사회적 고립, 기존 정신 질환 여부
    복합 요인을 함께 봐야 한다고 지적한다.

 

한 전문가는

“AI는 촉매가 될 수는 있지만, 단독 원인으로 단정하는 것은 과학적으로 신중해야 한다”
고 말했다.


■ 시사점

이번 사건은

  • 생성형 AI의 급속한 확산 속에서
  • 안전 가드레일, 경고 시스템, 취약 이용자 보호 장치
    의 중요성을 다시 한 번 부각시키고 있다.

 

향후 재판 결과에 따라 AI 산업 전반에
✔ 안전 설계 기준 강화,
✔ 이용자 보호 의무 확대,
✔ 책임 범위 명문화
규제·정책 변화가 이어질 가능성도 제기된다.

반응형