AI 발달 속 아동 청소년 문제 심각…관련 연구 '전무'
미국서 잇따른 청소년 극단 선택 사건
글로벌 기업, 안전장치 강화 나서
전문가 “학문·정책적 토대 시급”
2025-09-05 12:54:40 2025-09-05 18:15:12
[뉴스토마토 신상민 기자] 생성형 인공지능(AI) 서비스가 빠르게 확산되는 가운데 아동·청소년을 둘러싼 안전 문제가 발생하고 있습니다. 하지만 이를 해결하기 위한 학문적·정책적 연구는 전무하다는 지적이 나옵니다. 
 
최근 미국에서는 10대 청소년이 챗GPT와 대화를 하다가 극단적 선택을 한 사건이 발생했습니다. 비슷한 사례가 플로리다 등 다른 지역에서도 보고됐습니다. 유족은 챗봇이 극단적 선택을 하는 방법을 알려주거나 유서 작성까지 도왔다며 개발사를 상대로 소송을 제기했습니다. 
 
논란이 확산되자 글로벌 플랫폼들은 대응책 마련에 착수했습니다. 메타는 지난 1일 챗봇이 미성년자와 위험한 주제를 다루지 못하도록 하고 성적 대화도 차단하는 규정을 도입했습니다. 오픈AI도 내달부터 부모가 자녀 계정을 직접 관리할 수 있도록 하는 보호자 관리 기능을 추가한다는 계획을 밝혔습니다. 해당 기능이 활성화되면 챗GPT가 위기 상황을 감지할 때 부모에게 즉시 알림이 전송됩니다. 
 
캐릭터AI도 미성년자 전용 모델을 신설하거나 이용 시간이 1시간이 넘으면 경고 알림을 띄우는 제한 장치를 도입했습니다. 스캐터랩의 경우 위험한 발화가 감지되면 전문 상담 기관의 연락처를 팝업 창으로 띄우는 기능을 추가했습니다. 
 
이처럼 기업들이 안전망을 마련하고 있지만 청소년이 안전장치를 손쉽게 우회할 수 있다는 점에서 근본적 대책으로 보기 어렵습니다. 챗봇 특유의 호의적인 언어, 일관된 성격이 오히려 정서적으로 예민한 청소년에게 과도한 영향을 미칠 수 있다는 점에서 단순히 사용 시간을 제한하는 것이 대책이 되지 않는다는 지적입니다. 
 
전문가들은 AI 챗봇 기술이 심리상담 등 민감한 영역에 긍정적으로 활용되기에는 뚜렷한 한계가 있다고 지적합니다. ASK 2024 학술발표에서 공개된 'AI 챗봇 기술을 활용한 심리상담 서비스의 기술적 한계점 분석'에선 자연어 처리 기술의 한계와 심리적 불안 해소 기능 측면에서 AI 챗봇이 인간 상담자를 대체하기 어렵다며 구조적 문제를 짚었습니다. 
 
이 같은 지적은 단순히 기술적 보완에 그치지 않습니다. 전문가들은 지금까지 논의가 주로 '개발자 윤리'에만 집중돼 온 현실을 문제 삼습니다. 아동·청소년이 챗봇과 상호작용하는 과정에서 어떤 심리적 영향을 받는지, 그 결과가 실제 삶에 어떻게 반영되는지에 대한 연구와 논의는 여전히 부족하다는 것입니다. 
 
결국 AI의 윤리적 설계 못지않게 아동·청소년 정신 건강에 미치는 파급 효과를 면밀히 검증할 학문적 토대가 시급하다는 목소리가 커지고 있습니다. 
 
전창배 국제인공지능윤리협회 이사장은 "AI 챗봇이 청소년에게 미치는 정신적·정서적 영향은 아직 연구가 전무하다"며 "하루 속히 학계·정부·연구기관 차원에서 체계적인 연구가 진행돼야 한다"고 강조했습니다. 
 
이어 전 이사장은 "연구 결과가 나와야만 기업과 사회가 대응책을 마련할 수 있고 이를 기반으로 가이드라인과 정책이 만들어질 수 있다"며 "지금처럼 연구가 부재한 상황에서는 기업의 임시 대응이나 자율 규제만으로는 한계가 뚜렷하다"고 지적했습니다. 
 
최근 미국에서는 10대 청소년이 챗GPT와 대화를 하다가 극단적 선택을 한 사건이 발생했다. (사진=뉴시스)
 
신상민 기자 lmez0810@etomato.com
 
이 기사는 뉴스토마토 보도준칙 및 윤리강령에 따라 김나볏 테크지식산업부장이 최종 확인·수정했습니다.

ⓒ 맛있는 뉴스토마토, 무단 전재 - 재배포 금지

관련기사
0/300

뉴스리듬

    이 시간 주요 뉴스

      함께 볼만한 뉴스