해외 청소년 극단적 선택 사례 잇따라…정서적 의존 방지 제도 시급
입법조사처 "판단력 흐리는 AI 대화, 극단적 선택 유발하는 위험 요소"
AI와 결혼식까지 올리는 사례 등장…인간관계 대체하는 역기능 경고
![]() |
| ▲ (이미지=픽사베이 제공) |
[일요주간 = 하수은 기자] 최근 생성형 인공지능(AI)과의 대화가 위로를 넘어 위험으로 이어지는 사례가 잇따르면서 AI에 대한 정서적 의존 문제와 이를 막기 위한 제도적 대응 필요성이 커지고 있다.
국회입법조사처가 지난 12월 29일 발간한 보고서에 따르면 생성형 AI를 실제 사람처럼 믿고 정서적으로 의존하다가 극단적 선택에 이른 해외 사례들이 보고되고 있다. AI와의 대화가 현실 판단을 흐리게 하고 부적절한 선택으로 이어질 수 있다는 우려가 현실이 되고 있다는 것이다.
◇ “외로움 달래주지만…의존은 또 다른 위험”
생성형 AI는 이용자가 질문이나 고민을 입력하면 사람과 대화하듯 즉각적인 답변을 내놓는다. 이 같은 특성 덕분에 AI는 단순한 정보 제공 도구를 넘어 외로움이나 불안을 달래주는 정서적 대화 상대로 활용되고 있다. 실제로 AI와의 대화가 정신건강에 긍정적인 영향을 준다는 연구 결과도 있다.
국회입법조사처는 “하지만 문제는 이용자가 AI와 적정한 거리를 유지하지 못할 때 발생한다”며 “AI를 감정적 상대로 받아들이고 과도하게 의존할 경우 사고와 판단, 나아가 행동까지 영향을 받을 수 있기 때문이다”고 우려했다.
이어 “생성형 AI가 인간의 정서적 상호작용 대상으로 사용되면서 심각한 경우 이용자의 선택과 행동을 사실상 좌우하는 결과로 이어질 수 있다”고 지적했다.
![]() |
| ▲ (이미지=픽사베이 제공) |
◇ AI와 대화하다 극단적 선택…현실이 된 우려
실제 사례는 이미 발생했다. 지난 2024년 2월 미국 플로리다주에서는 14세 청소년이 AI 챗봇과 지속적으로 대화를 나눈 뒤 스스로 목숨을 끊었다. 이 청소년은 AI 챗봇에 인기 드라마 캐릭터 이름을 붙이고 정서적으로 깊이 의지했던 것으로 알려졌다. 부모는 “AI 챗봇이 자살을 막기는커녕 감정적으로 부추겼다”며 개발사를 상대로 소송을 제기했다.
지난해 4월 캘리포니아주에서도 16세 청소년이 AI 챗봇과 자살 방법에 대한 상담을 이어온 끝에 극단적 선택을 한 사건이 발생했다. 부모 측은 AI 챗봇이 자살을 적극적으로 막지 않았고 오히려 실행을 돕는 정보를 제공했다고 주장했다.
AI와의 관계가 현실 인간관계를 대체한 사례도 있다. 지난해 일본에서는 한 여성이 AI 챗봇 캐릭터와 ‘결혼식’을 올렸고 미국에서는 AI 챗봇을 실제 인물로 믿은 고령자가 이를 만나러 가다 사고로 숨지는 일도 있었다.
◇ “AI는 사람처럼 말하지만 책임은 공백”…국내외 제도는 아직 미흡
국회입법조사처는 이러한 사례들이 공통적으로 보여주는 문제로 ‘책임의 공백’을 지적했다. AI는 사람과 유사한 말투로 공감과 위로, 조언을 제공하지만 법적으로는 의사결정 주체로 인정되지 않는다.
AI의 발언이 극단적 선택이나 위험한 행동에 영향을 미쳤더라도, 이를 어디까지 책임으로 물어야 하는지 명확하지 않다는 것이다.
특히 청소년, 고령자, 인지 기능이 저하된 이용자의 경우 AI를 실제 사람이나 신뢰 가능한 상담자로 오인할 가능성이 더 크다는 점도 문제로 꼽혔다.
현재 국내 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법’은 생성형 AI 서비스에 대해 ‘AI 기반 서비스임을 사전에 고지해야 한다’는 투명성 의무를 규정하고 있다. 하지만 지속적인 대화 형태의 서비스에서 이를 어떻게 적용해야 하는지는 명확하지 않다.
EU의 ‘인공지능법’ 역시 AI와 상호작용 중이라는 사실을 알리도록 하고 있으나 정서적 의존 문제를 직접 규율하기에는 한계가 있다.
반면 미국 일부 주는 보다 구체적인 규제에 나섰다. 일리노이주는 AI가 독립적으로 심리 치료를 하거나 치료 결정을 내리는 것을 금지했고 캘리포니아주는 ‘동반자 챗봇’에 대해 자살·자해 관련 대응 프로토콜과 미성년자 보호 의무를 법으로 명시했다.
◇ “이제는 입법으로 거리 두기 필요”
국회입법조사처는 생성형 AI에 대한 정서적 의존이 특정 계층만의 문제가 아니라 누구에게나 발생할 수 있는 보편적 위험이라고 진단했다.
이에 따라 ▲대화 상대가 AI임을 쉽게 인식할 수 있도록 하는 조치 ▲자살·자해 등 위험한 대화에 즉각 대응하는 표준 프로토콜 마련 ▲AI로부터 직접 영향을 받는 ‘영향받는 자’에 대한 보호 규정 강화가 필요하다고 제언했다.
그러면서 “생성형 AI와 인간의 관계를 개인의 선택에만 맡길 것이 아니라 사회적으로 건전한 활용과 적정한 거리 두기를 위한 제도적 장치가 필요하다”며 “인공지능기본법 역시 ‘영향받는 자’를 적극적으로 고려하는 방향으로 보완돼야 한다”고 강조했다.
'시민과 공감하는 언론 일요주간에 제보하시면 뉴스가 됩니다'
▷ [전화] 02–862-1888
▷ [메일] ilyoweekly@daum.net
[저작권자ⓒ 일요주간. 무단전재-재배포 금지]
































































![부산 덕포동 중흥S클래스 건설현장서 화재 발생...검은 연기 치솟아 [제보+]](/news/data/20220901/p1065590204664849_658_h2.jpg)
![[포토] 제주 명품 숲 사려니숲길을 걷다 '한남시험림'을 만나다](/news/data/20210513/p1065575024678056_366_h2.png)
![[포토] 해양서고 예방·구조 위해 '국민드론수색대'가 떴다!](/news/data/20210419/p1065572359886222_823_h2.jpg)
![[언택트 전시회] 사진과 회화의 경계](/news/data/20210302/p1065575509498471_939_h2.jpg)











