AI와 인권의 대립을 표현한 오픈AI DALL·E 생성 이미지. (사진=하버드대 Soroush Saghafian 교수 블로그에서 인용)
[뉴스토마토 임삼진·서경주 객원기자] 인공지능(AI)이 세계 법·윤리 질서를 전례 없이 재편하면서 동시에 인간의 존엄을 시험대에 올리고 있다는 경고가 나왔습니다. 호주 찰스다윈대학(CDU) 법학자 마리아 란다조(Maria Salvatrice Randazzo) 박사는 호주인권저널(Australian Journal of Human Rights)에 발표한 논문에서 “AI는 인간적 의미에서 전혀 지능이 아니다. 그것은 사고가 아니라 패턴 인식의 승리일 뿐”이라고 강조했습니다. 그녀는 현재 규제가 사생활, 차별금지, 자율성, 지식재산권 등 기본권을 보호하지 못한 채 AI 확산을 허용하면서 민주주의의 기초가 무너지고 있다고 지적합니다.
‘블랙박스’와 유사한 AI의 위험
란다조 박사가 지적한 핵심은 ‘블랙박스 문제’입니다. AI가 어떤 데이터와 알고리즘을 거쳐 결론에 도달했는지 사용자조차 알 수 없다는 것입니다. 그 결과, 자신이 어떤 방식으로 권리를 침해당했는지 입증하거나 구제받기 어렵습니다. “AI는 자신이 무엇을, 왜 하는지 전혀 모른다. 인간이 이해하는 사고 과정은 존재하지 않으며, 단지 구체화, 기억, 공감, 지혜가 배제된 패턴 인식에 불과하다”는 그녀의 발언은 기술의 불투명성이 가져올 위험을 적나라하게 보여줍니다.
이런 위험으로 인해 실제 AI 사용이 중단된 적이 있습니다. 2023년 3월 이탈리아 개인정보보호국(Garante)은 GDPR 위반을 이유로 챗GPT의 데이터 처리를 일시 중단시켰습니다. 정보 제공 부족, 처리 근거 불명확, 아동 연령 검증 부재 등이 문제로 지적됐습니다. 시정 조치 이후 제한은 풀렸지만, “AI가 침해한 권리를 어떻게 따지고 구제받을 것인가”라는 근본적 질문은 여전히 미해결의 문제로 남아 있습니다.
현재 세계 3대 디지털 권력은 서로 다른 AI 규제 철학을 선택한 상황입니다. 중국은 국가 주도의 ‘국가 중심’ 모델로 정보 통제와 산업 육성을 동시에 추구합니다. 이와 달리 미국은 민간 자율에 맡기는 ‘시장 중심’ 모델을 고수하며, 거대 플랫폼이 ‘준(準)주권’적 권력을 행사하는 상황이 벌어지고 있습니다. 반면 유럽연합(EU)은 기본권과 존엄 보호를 최우선으로 하는 ‘인간 중심’ 모델을 내세우며, 세계 최초의 포괄적 규제인 AI 법을 시행 중입니다.
존엄을 지키려는 유럽의 선택
지난 2024년 8월1일 발효되고 2026년 8월2일 전면 적용을 앞두고 있는 EU AI법은 위험 기반 접근을 통해 AI를 네 단계로 분류합니다. 잠재의식 조작, 사회적 점수화, 실시간 원격 생체인식 등은 금지하고, 교육·고용·이민·사법 분야의 AI는 고위험으로 묶어 엄격한 통제를 적용합니다. 챗봇·딥페이크 등은 투명성 표시 의무를 지우며, 저위험 시스템은 자율 규제에 맡깁니다. 여기에 범용·기반 모델에는 저작권 공시, 불법 콘텐츠 방지, 환경·에너지 정보 공개 등 추가 의무를 부여했습니다. 특히 고위험 범주에는 두 가지 결이 있는데, 자율주행차처럼 ‘고장 나면 위험한 좋은 기술’은 복원력을 강화해야 하고, 원격 생체 감시처럼 ‘사용되면 위험한 나쁜 기술’은 아예 차단해야 한다는 것입니다.
그러나 규제만으로는 충분치 않습니다. 전문가들은 설명 가능성 부족, 프라이버시와 데이터권 침해, 편향·차별의 증폭, 쟁송 가능성의 부재를 ‘네 가지 균열’로 꼽습니다. 이에 대한 해법으로는 권리 보호를 기술 설계 단계에 내장하는 ‘바이 디자인(by design)’ 원칙, 데이터·모델 카드 의무화, 고위험 AI에 대한 기본권 영향 평가와 외부 감사 결합, 취약계층 대상 무료 법률 지원 등이 제시되고 있습니다.
“인간의 존엄을 설계에 새겨야”
AI는 인간 조건을 향상시키는 도구가 될 수도, 존엄을 잠식하는 힘으로 작동할 수도 있습니다. 유럽은 이미 규제의 닻을 내렸고, 산업계의 반발에도 일정은 바뀌지 않았습니다. 남은 과제는 ‘인간 중심’ 원칙을 코드와 계약, 그리고 제도에 새겨 넣는 일입니다.
한편 EU AI법 제4조는 AI 리터러시(literacy)를 명문화하여 “인공지능 시스템의 제공자와 배포자는 기술적 지식, 경험, 교육 및 훈련 수준과 인공지능 시스템이 사용될 맥락을 고려하고, 인공지능 시스템이 적용될 대상자 또는 집단에 대한 평가를 바탕으로, 직원 및 인공지능 시스템의 운영과 사용을 대행하는 기타 관계자들의 인공지능 이해도를 최대한 확보하기 위한 조치를 취해야 한다”고 규정하고 있습니다. EU가 AI 리터러시를 강조하는 이유는 규제만으로는 충분하지 않으며, 시민이 스스로 AI의 한계와 위험을 인식하고 권리 구제 절차에 참여할 수 있어야 하기 때문인 것으로 보입니다. 다시 말해, AI 리터러시는 기술적 교육을 넘어 인권 보장·민주적 참여·책임 있는 이용을 실질적으로 가능하게 하는 제도적 토대이기 때문입니다. 이 부분도 인간 중심의 시각에서 꼭 살펴봐야 할 대목입니다.
란다조 박사는 EU의 인간 중심 접근법이 인간의 존엄성을 보호하는 바람직한 길이지만, 이 목표에 대한 글로벌 합의가 없다면 그 접근법조차 부족하다고 지적합니다. 그녀는 “전 세계적으로, 우리가 선택하고, 느끼고, 신중하게 추론하며, 공감과 연민을 가질 수 있는 능력과 같은 인간성을 AI 개발의 기반으로 삼지 않는다면, 인간의 조건을 개선하기보다는 인간성을 데이터 포인트로 격하시키고 평평하게 만드는 시스템을 만들 위험이 있다”고 경고합니다. AI는 혁신의 이름으로 기대감을 키우고 있지만 인간의 존엄을 더욱 위협하는 도구가 될지 모른다는 우려도 함께 커지고 있습니다.
기사 DOI: https://doi.org/10.1080/1323238X.2025.2483822
AI와 인권의 대립을 표현한 오픈AI DALL·E 생성 이미지. (사진=하버드대 Soroush Saghafian 교수 블로그에서 인용)
임삼진·서경주 객원기자 isj2020@daum.net
이 기사는 뉴스토마토 보도준칙 및 윤리강령에 따라 강영관 산업2부장이 최종 확인·수정했습니다.
ⓒ 맛있는 뉴스토마토, 무단 전재 - 재배포 금지