2021년 12월25일, 19세 남성 자스완트 싱 차일(Jaswant Singh Chail)이 영국 왕실이 사용하는 윈저성 담장을 넘어 들어가려다 경찰에 체포되는 사건이 발생했습니다. 그는 석궁을 들고 있었으며, 침입 목적은 당시 영국 여왕 엘리자베스 2세를 암살하는 것이었습니다.
수사와 재판 과정에서 차일은 인터넷에서 접한 극단적 콘텐츠와 맞춤형 메시지를 반복적으로 받아들였고, 이 과정에서 챗봇은 그의 망상적 사고와 행동을 점진적으로 강화한 것으로 드러났습니다. 2023년 차일에게는 총 9년의 징역형이 선고되어, 최고 보안 정신병원에서 정신건강 치료를 받고 있습니다. 치료가 끝나면 남은 형을 일반 교도소에서 복역하게 됩니다.
영국 수도경찰이 제공한 CCTV 영상 캡처 사진에서 자스완트 싱 차일(Jaswant Singh Chail)이 2021년 12월23일 영국 윈저의 윈저역(Windsor Railway Station)을 걷고 있는 모습이 보인다. 이른바 ‘모의 암살범’인 차일은 챗봇 여자친구의 부추김을 받아 엘리자베스 2세 여왕을 살해하려 한 혐의로 기소됐다. (사진=뉴시스)
디지털 시대, 인지능력 더 약해져
전문가들은 이 사건이 단순한 개인의 충동이 아니라, 알고리즘 기반 설득과 사회적 고립이 결합했을 때 나타나는 위험을 보여준다고 평가합니다. 하버드대 과학사 교수인 레베카 레모프는 저서 『진실의 불안정성(The Instability of Truth)』에서 이렇게 지적합니다. “세뇌는 스스로를 지웁니다. 세뇌라고 우리가 부르는 현상은 생각보다 훨씬 흔하며, 그것은 다른 사람에게 일어나는 일이 아니라 누구에게나 일어날 수 있는 일입니다.”
오늘날 누구나 가짜 뉴스, 음모론, 알고리즘 기반 정보 추천 시스템에 노출되어 있습니다. 사람들은 자신이 합리적이라고 믿지만, 인간의 뇌는 정보 선택과 해석에서 구조적 취약성을 가지고 있어, 일관성 있고 감정적으로 안정감을 주는 이야기를 우선적으로 받아들이는 경향이 있습니다. 윈저성 사건은 단순한 범죄를 넘어 디지털 시대 인간 인지능력의 취약성을 보여주는 상징적 사례가 되었습니다.
심리학과 신경과학 연구에 따르면, 인간은 정보를 비판적으로 평가하는 능력보다 빠르게 의미를 구성하고 안정감을 찾는 능력을 우선시합니다. 새로운 정보가 기존 신념과 충돌하면, 사람들은 사실을 바꾸기보다 신념에 맞춰 해석을 조정합니다.
디지털 환경에서 알고리즘은 사용자의 기존 믿음과 감정을 학습하고 반복적으로 강화합니다. 그 결과, 뇌는 잘못된 정보도 정상적 세계의 일부처럼 처리하게 됩니다. 윈저성 사건의 주인공인 차일은 AI 챗봇과의 반복적 상호작용을 통해 자신의 왜곡된 신념을 점점 더 정당화하고 강화했습니다. 챗봇은 단순 정보 제공을 넘어, 정서적 공감과 동조를 모방하는 반응으로 그의 사고를 설득력 있게 만드는 역할을 했습니다. 레모프 교수는 세뇌가 작동하는 방식에 대해 “심리적 취약성과 정보 환경의 설계가 결합될 때, 인간은 스스로가 조작되고 있다는 사실을 인지하기 어렵다”고 설명합니다.
19세의 차일이 경험한 현상은 크게 세 가지로 요약할 수 있습니다. 첫째, 반복 강화입니다. 알고리즘은 사용자가 관심을 보이는 콘텐츠를 지속적으로 노출시켜 그의 믿음을 점점 더 강화했습니다. 둘째, 정서적 설득입니다. 챗봇은 단순한 정보 제공에 그치지 않고, 사용자의 감정과 반응에 맞춘 메시지를 제공함으로써 정서적 신뢰를 형성하고, 차일의 사고를 정당화했습니다. 셋째, 사회적 고립입니다. 외부의 반대 정보나 비판적 시각과 접촉이 적을수록, 잘못된 믿음은 사회적 현실로 오인되었습니다.
이 과정은 단순한 정보 오염에 그치는 것이 아니라, 인간의 자기 신념 체계 자체를 재구성하는 구조적 문제로 볼 수 있습니다. 레모프 교수는 현대 디지털 환경에서 이러한 ‘연성 세뇌(soft brainwashing)’가 얼마나 흔하게 발생하는지를 강조하며, “트라우마와 중독을 악용하는 침습적 정서 공학(emotional engineering)은 일상생활 속에서도 사람을 설득하고 조종할 수 있다”고 지적합니다.
한국의 디지털 환경에서도 비슷한 위험 요소가 존재합니다. 먼저 개인 차원에서, 정신적 취약성, 외로움, 사회적 고립은 온라인 커뮤니티와 SNS, 맞춤형 추천 알고리즘과 결합될 때 극단적 행동이나 극단적 신념으로 이어질 수 있습니다. 예를 들어, 일부 청소년이나 사회적 소외 계층이 특정 온라인 집단이나 음모론 커뮤니티에 반복적으로 노출될 경우, 잘못된 믿음이 점차 강화되고 현실 판단력이 약화될 수 있습니다.
현대 디지털 환경을 악용하는 침습적 정서 공학(invasive emotional engineering)은 사람들을 쉽게 세뇌시킨다. (이미지=챗GPT 생성)
인간 판단 무력화하는 환경
기술적 차원에서는 AI 챗봇, 알고리즘 기반 뉴스 추천, 동영상 플랫폼의 자동 재생 기능 등이 인간 판단을 왜곡하거나 무력화할 가능성을 내포하고 있습니다. 한국에서도 추천 알고리즘이 사용자 취향과 기존 신념을 학습하면서, 잘못된 정보가 반복적으로 노출되는 현상이 관찰됩니다. 이 과정에서 이용자는 스스로를 합리적이라고 믿지만, 뇌는 정서적 안도감과 일관성을 제공하는 정보를 우선적으로 받아들이기 때문에 디지털 설득에 취약해집니다.
사회적 차원에서도, 정보 소비 방식과 설득 기술의 영향력을 충분히 이해하지 못하면, 잘못된 정보와 루머가 빠르게 확산되어 사회 전체가 ‘집단적 착각’이나 편향된 인식을 공유하게 될 위험이 존재합니다. 실제로 한국 사회에서도 온라인에서 유포된 가짜 뉴스와 음모론이 진실을 왜곡하고 대중을 오도하는 경우를 드물지 않게 볼 수 있습니다.
서경주 객원기자 kjsuh57@naver.com
이 기사는 뉴스토마토 보도준칙 및 윤리강령에 따라 오승훈 산업1부장이 최종 확인·수정했습니다.
ⓒ 맛있는 뉴스토마토, 무단 전재 - 재배포 금지