[미디어펜=석명 기자] ▲ 내가 아닌 가짜 '나'의 등장

"여자의 나체가 이렇게 보이는 그 영상, 한 11초짜리 그게(메시지) 왔는데. 이거 본인 맞죠? 이러는 거예요." - '딥페이크' 피해 제보자 A -

어느 날 SNS 메시지를 통해 낯선 이에게서 자신의 성관계 영상을 받았다는 A 씨. 분명 직접 촬영한 영상도 아니었고, 실제 있었던 일도 아니었지만, 영상 속 인물은 자신의 얼굴과 똑 닮아있었다. 기억에도 전혀 없고, 있을 수도 없는 일인데… 영상 속의 '나'는 진짜 나를 보듯 표정과 움직임까지 자연스러웠다고… 놀란 마음을 가라앉히고 영상을 자세히 보기 시작한 그녀는 이 영상이 본인의 얼굴 사진과 다른 사람의 몸을 합성해 만든 가짜 동영상인 것 같았다는데…

   
▲ 사진=SBS '그것이 알고싶다' 홈페이지


세상에 얼굴이 알려진 연예인이나 공인도 아닌, 평범한 사람으로 지내온 자신이 어떻게 본인도 모르는 사이 성 착취 동영상의 주인공이 된 것인지 알 수 없다는 A 씨. 문제는 이런 메시지를 받은 사람이 A 씨 뿐만이 아니라는 것!

인공지능의 한 분야인 딥러닝(Deep learning)을 활용해, 사람의 얼굴이나 특정 부위를 합성한 가짜 동영상을 만들어내는 기술 '딥페이크(Deepfake)'. 최근, 세계적인 인기를 얻고 있는 K-POP 연예인들의 얼굴을 이용한 딥페이크 영상물이 만들어지고 있는데…

대부분 성 착취 동영상의 형태로 악용되고 있어 사회적으로 큰 이슈가 되고 있다. 제작진이 만난 제보자들 역시 이 딥페이크 기술에 자신들의 사진을 이용당한 피해자였다. 유명 연예인을 넘어 일반인에게까지 뻗치고 있는 딥페이크 범죄의 피해는 어느 정도일까?

▲ 양날의 검, 인공지능 '딥페이크'. 보이는 대로 믿고 있습니까?

IT 산업은 물론 엔터테인먼트 산업까지 다양한 분야에 쓰이고 있는 인공지능 기술! 그 중의 하나인 '딥페이크'는 이미 사망한 사람의 얼굴을 재현해 가족들을 위로하기도 하고, 과거의 추억을 소환해 새로운 감동을 만들어 내며, 신원 보호가 필요한 사람들을 위한 안전장치도 될 수 있는 등, 제대로만 쓰인다면 긍정적인 부분이 많은 기술이다. 그리고 앞으로 더 발전해, 실제와 거의 차이가 없는 정교한 동영상 제작도 가능할 것으로 보인다.

이 기술이 바꾸어 놓을 미래의 풍경은 어떤 모습일까? 전문가들은 인공지능 기술, '딥페이크'가 성 착취 동영상 제작의 사례처럼 범죄에 악용될 경우, 이제는 보이는 것을 보이는 대로 믿을 수 없는, 가짜와 진짜를 구분하기 어려운, 치명적인 사회적 위험을 발생시킬 수 있다고 경고하는데…

'그것이 알고싶다' 제작진은 전문가들의 자문을 받아 '딥페이크' 기술을 이용한 범죄 실험을 진행했다. 대상은 부모와 자녀. 자녀의 '딥페이크' 영상을 받아본 부모님들은 과연 어떤 반응을 보였을까. 그리고 만약 당신이라면 그 영상을 보고 어떤 행동을 보였을까… 

한편, 제작진은 '딥페이크' 기술을 이용해 성 착취 동영상과 같은 불법 영상을 제작, 판매하고 있는 사람들을 추적해 만날 수 있었는데… 과연 그들은 누구이며, 무슨 이유로 딥페이크 영상을 만드는 것일까?

쉽게 비유해 '나'를 유명한 영화의 주인공이 되게 만들 수도 있고, 반대로 불법 성 착취 동영상의 주인공이 되게 만들기도 하는 양날의 검, '딥페이크'. 우리 현실에 성큼 다가온 이 '딥페이크'는 과연 천사의 기술이 될 것인가 악마의 기술이 될 것인가…


오늘(27일) 밤 11시 10분 방송되는 SBS '그것이 알고싶다'에서는 인공지능의 발전으로 나타난 '딥페이크' 기술의 현주소를 살펴보고, 이 기술을 악용한 범죄를 분석하고, 그 예방책을 살펴본다. 한편으로는 '딥페이크'가 온전히 '사람을 위한' 기술이 되게 하려면 우리는 무엇을 준비해야 하는지 고민해보고자 한다.
[미디어펜=석명 기자] ▶다른기사보기