디지털이 만든 어두운 그림자, AI 시대 피해자 보호를 묻는다
- kava2016
- 6월 8일
- 4분 분량
출처 : 매거진 - 이코노미 퀸
이희엽의 사람 세상 칼럼
최근, 딥페이크 기술로 생성된 한 청소년의 영상이 온라인상에 무분별하게 확산되는 사건을 접했다.
그 영상은 단순한 기술의 오용이 아니었다.
누군가의 얼굴이 허락 없이 조작되고, 그 이미지가 조롱과 소비의 대상이 되는 과정을 보며, 나는 기술의 발전이 과연 누구를 위해 작동하고 있는지를 묻게 되었다.
언뜻 가벼운 장난처럼 시작된 일이, 피해자에게는 일상의 붕괴이자 관계의 단절, 그리고 자신에 대한 신뢰마저 무너뜨리는 경험으로 남는다.
사건은 빠르게 잊히지만, 그 영상 안에서 존재를 부정당한 누군가는 여전히 멈춰진 시간 속에 머물러 있다.
기술은 날로 정교해지고 있지만, 그 기술이 초래하는 상처를 감당할 준비는 여전히 우리 사회에 충분하지 않다. 우리는 이제 묻지 않을 수 없다.
이 모든 기술적 진보는, 과연 사람을 지키고 있는가?
청소년 딥페이크 범죄와 피해자 보호의 사각지대
최근 디지털 성범죄가 아동·청소년을 중심으로 빠르게 확산되고 있다. 특히 딥페이크 기술은 ‘호기심’이라는 이름 아래 누구나 손쉽게 다룰 수 있는 도구가 되었고, 그 결과는 상상 이상의 상처로 이어진다. 단순한 장난처럼 제작된 영상이 피해자에게는 지워지지 않는 불안과 수치로 남으며, 때로는 일상과 관계, 정체성까지 흔드는 깊은 균열을 만든다.
기술은 빠르게 진화하지만, 그 기술로부터 사람을 보호하기 위한 사회적 감수성과 제도적 대응은 여전히 그 뒤를 따라가지 못한다. 피해자가 입는 상처는 디지털이라는 공간 안에서 조용히 반복되고, 그 고통은 여전히 구조 밖에 놓여 있다.
한편, 수사기관의 대응은 점점 더 정교해지고 있다. 전담 조직이 생기고, 범죄자를 추적하고 처벌하는 시스템도 발전하고 있다. 하지만 그 과정에서 피해자는 종종 ‘범인을 특정하기 위한 도구’로만 기능할 뿐, 회복의 주체로 대우받지 못한다. 신고 이후의 절차는 복잡하고 지연되며, 상담이나 회복 지원은 체계적으로 설계되어 있지 않다.
범죄는 종결될 수 있지만, 피해자의 시간은 여전히 그 사건 안에 머물러 있다. 처벌의 칼날이 날카롭다는 것만으로는 충분하지 않다. 이제는 피해자의 회복을 중심에 둔 시스템이 필요하다. 목소리를 낼 수 있는 자리, 지워지지 않는 고통을 다룰 수 있는 구조, 그리고 사건 이후의 삶을 다시 살아갈 수 있도록 하는 사회적 토대가 지금 절실하다.

Chat-GPT 등의 범용 AI - 사람처럼 말하지만, 고통은 듣지 못하는 존재
우리는 지금, 너무 많은 것을 AI에게 기대하고 있는지도 모른다. 특히 요즘처럼 챗GPT와 같은 범용 AI가 사람과 대화하고, 감정을 읽고, 조언까지 해주는 시대에, 피해자 상담조차 인공지능이 어느 정도 대신할 수 있지 않겠느냐는 기대는 자연스럽게 떠오른다. 실제로 많은 사람들이 “AI에게 털어놓는 게 더 편하다”고 말하기도 한다. 낯선 사람보다, 기계가 더 공감해주는 것처럼 느껴진다는 고백은 우리 사회가 얼마나 고립된 구조 속에 살아가고 있는지를 보여주는 단면이기도 하다.
하지만 그 안에는 조용한 함정이 숨어 있다. 범용 AI는 원칙적으로 ‘안전’을 최우선으로 설계되어 있다. 위험한 발언, 극단적인 표현, 불쾌한 단어에는 즉각적으로 제동을 걸고, 통제된 범위 내에서만 반응한다. 그것이 시스템의 윤리이자, 우리가 기술을 불신하지 않을 수 있는 최소한의 안전장치다. 그러나 그 장치가 때때로 피해자의 절박한 언어를 ‘위험’으로 간주하며 무력화시킨다는 사실은, 이 기술이 아직 인간의 고통을 이해하기엔 충분히 성숙하지 않았다는 점을 말해준다.

한 성폭력 피해자가 “나는 더럽고, 다시는 살아갈 수 없을 것 같다”고 말했을 때, AI는 그 문장을 정제된 권유와 모호한 조언으로 치환해 응답한다. 피해자가 바란 건 조언이 아니라 ‘그 감정에 함께 머무는 것’인데, 기계는 반응을 피하거나 원론적인 말로 상처를 덮는다. 그 순간 피해자는 다시 한번 판단받는다. 나의 언어는 위험했고, 나의 감정은 과했고, 나는 다시 혼자라는 자각이 들기 때문이다.
우리가 지금 마주한 건, 기술이 아니라 태도의 한계다. 범용 AI가 아무리 똑똑해도, 상처받은 사람의 곁에 머무를 수 없다면, 그것은 위로가 아니라 회피일 뿐이다.
이해하지 못하는 채 공감하는 척하는 기술이, 때로는 누군가에게 또 다른 침묵의 강요가 된다는 사실을, 우리는 더 이상 외면해선 안 된다.
상처를 다룰 권리는, 이해하려는 기술에 있다
피해자를 위한 AI는 단지 상담을 자동화하는 기술이 아니다. 그것은 우리 사회가 고통을 어떻게 다루는지를 보여주는 태도이며, 우리가 누구의 편에 서려 하는가를 증명하는 하나의 윤리적 선언이다. 상담이라는 건 애초에 정확한 정보를 주는 일이 아니다. 누군가의 말에 귀를 기울이고, 그 사람이 지금 어떤 상황에 있는지를 함께 느끼는 일이다. 감정은 언제나 설명보다 앞서고, 고통은 구조화된 대화 속에서조차 불규칙하게 흘러나온다. 피해자의 언어는 종종 논리적이지 않고, 감정은 흐릿하며, 표현은 무너져 있다. 그래서 그 대화를 다루기 위해서는, 단순히 ‘말을 이해하는 기계’가 아니라 ‘사람의 복잡성을 감당하려는 기술’이 필요하다.
특화형 AI는 바로 그런 기술이어야 한다. 정확히 대답하는 것이 아니라, 무너진 언어 안에서도 위급함을 감지하고, 회피하지 않으며, 그 자리에 함께 머물 수 있는 존재. 우리는 이제 ‘잘 반응하는 AI’를 만드는 데서 멈출 것이 아니라, ‘곁에 있어주는 AI’를 만들기 위해 나아가야 한다. 그것이 진짜 피해자 중심 기술이며, 사회가 기술을 통해 어떤 방향으로 움직이고자 하는지에 대한 윤리적 선택이기도 하다.

사람과 기술이 함께할 때, 진짜 회복이 시작된다
결국 회복은 사람이 사람을 통해 일어난다. 어떤 기술도 인간의 손길을 대신할 수는 없다. 하지만 기술은 그 손길이 더 빨리 닿도록, 더 깊이 닿도록 도울 수 있다. 피해자가 어떤 순간에 어떤 말을 할지를 예측할 수는 없어도, 반복되는 패턴과 감정의 진동을 감지하는 시스템은 그 상황을 더 빨리 이해할 수 있게 만든다. AI가 피해자의 언어에서 위기의 신호를 포착하고, 즉각적으로 인간 상담자에게 연결한다면, 우리는 놓쳤던 수많은 위급한 순간을 다시 붙잡을 수 있을 것이다.

AI는 곁에 있어주고, 사람은 끌어안는다. 이 단순한 구조가 작동하기 위해서는 기술과 사람이 협력하는 시스템이 전제되어야 한다. 그리고 그것은 그냥 자연스럽게 만들어지지 않는다. 우리는 의식적으로, 누군가를 지키기 위해 설계해야 한다. 기술이 사람을 이해하지 못하더라도, 그 틈을 우리가 메워줄 수 있다는 믿음이 있어야만, 이 시스템은 생명을 살리는 구조가 된다.
지금 우리가 물어야 할 질문은 이렇다.
기술은 충분히 빠른가? 가 아니라,
기술은 지금 사람을 향해 움직이고 있는가? “우리는 지금 그 질문 앞에 서 있다.”

이희엽은..
국회사무처 소속 사단법인 한국폭력학대예방협회(KAVA) 이사장이다.
가톨릭대학교에서 정신건강복지학 석사학위를 받았으며, 한국여성문화경제인협회 회장을 역임했다. 대한민국 최초의 AI 상담 로봇 ‘조앤’을 개발하여 AI 기술을 활용한 아동학대 조기 발견 시스템을 국내 최초로 선보였다. 주요 AI 공공지원사업으로는 <2023 아동·청소년 상담데이터 구축(NIA)>, <2024 초거대 AI기반 심리케어 서비스 지원사업(NIPA)> 등이 있다.