지인 사진,음란물 합성 ‘지인능욕’
성폭행 표정 합친 ‘아헤가오’이어
AI 이용 ‘딥페이크 포르노’도 확산
2월 발의 법 상임위 상정조차 못해
직장인 정모(29)씨는 최근 카카오톡과 페이스북 등 모든 사회관계망서비스(SNS)에서 자신의 얼굴이 나온 사진을 삭제했다. 직장 동료로부터 ‘요즘 사진 몇 장만 있으면 포르노 영상에 얼굴을 합성돼 유포가 될 수 있다’는 소리를 들은 후부터다. 정씨는 “잘 나온 사진도 내 SNS에 자유롭게 올리지 못하는 한국 여성들의 현실을 생각하니 울화통이 터진다”고 목소리를 높였다.
디지털성범죄가 진화하고 있다. 몰래카메라(몰카) 등 불법 촬영에 그치는 게 아니라 각종 음란물에 불특정 여성의 얼굴을 합성해 유포하는 일이 다반사로 벌어지고 있는 것. 실제 촬영이 이뤄진 것처럼 정교하게 만들어지면서 피해자들은 심각한 2차 피해를 겪지만, 이를 막는 처벌 법안은 발의된 후 국회에서 반년 넘게 잠만 자고 있다.
합성 음란물 제작 및 유포는 어제 오늘의 문제가 아닌데도 그렇다. 텀블러 등 해외 소재 SNS를 중심으로 ‘지인능욕(지인의 사진을 음란 사진에 합성해 유포하는 행위)’이나 ‘아헤가오(성폭행 당할 때의 표정을 얼굴과 합성한 사진)’ 등과 같은 혐오스런 불법 합성물이 인터넷을 떠돌고 있지만 단속은 제대로 이루어지지 않고 있다. 실제 지난해 6월 대학생 A(20)씨는 모르는 사람들로부터 조롱 섞인 메시지를 받으면서 자신 얼굴이 음란물과 합성된 채 온라인 공간에 돌아다니고 있는 것을 알게 됐다. 이 과정에서 이름, 학교, 거주지 등 개인 정보까지 함께 유출이 됐는데 알고 보니 범인은 평소 알고 지내던 B씨였다. ‘지인능욕’ 범죄의 전형이었다.
더 큰 골칫거리는 기술의 발달로 합성음란물이 보다 정교해지고 있다는 점이다. 인공지능 기술을 이용한 ‘딥페이크(deepfake)’기술까지 가세하면서 사진 몇 장만 있으면 영화 컴퓨터그래픽(CG)처럼 얼굴을 영상에 쉽게 입힐 수 있게 됐다. 이를 이용해 지인이나 연예인 얼굴을 포르노에 합성한 ‘딥페이크 포르노’가 신종 불법 음란물로 확산되고 있는 실정이다. 한 음란물 사이트에는 ‘딥페이크’라는 카테고리가 따로 있고, 여기에 담긴 한 유명 여성 연예인의 딥페이크 영상은 개당 조회수가 7만회에 육박할 정도다.
사정이 이 지경인데도 이런 행위가 법의 사각지대에 놓여 있어 범죄를 부추긴다. 몰카나 리벤지포르노(비동의 유포 성적 촬영물) 등 디지털성범죄를 처벌하는 근거조항은 ‘성폭력범죄의처벌등에관한특례법(카메라등이용촬영)’. 하지만 이들 법은 타인 신체를 동의를 받지 않고 ‘촬영’한 것에 대해서만 처벌이 가능하다. 합성 등은 처벌을 할 수 없다는 얘기다. 지난 2월 민경욱 자유한국당 의원이 사진을 합성하거나 재편집해 음란물로 만들어 유포하는 행위를 처벌하는 내용을 골자로 한 ‘지인능욕 처벌법’을 내놨지만, 아직 상임위에 상정조차 되지 못했다. 조주은 국회입법조사처 조사관은 “법령 미비로 현재는 ‘정보통신망법상 명예훼손’으로 처벌하고 있지만 이마저도 대부분 집행유예에 그쳐 실질적인 효력이 없는 상황”이라고 말했다.
이혜미 기자 herstory@hankookilbo.com
기사 URL이 복사되었습니다.
댓글0