내 얼굴로 만들어진 포르노 '딥페이크' 경보

  • 기자명 지윤성 기자
  • 기사승인 2018.03.20 06:03
이 기사를 공유합니다

한국에서도 본격적으로 '가짜 연예인 음란 동영상' 문제가 불거지고 있다. 예전에는 얼굴이 닮은 일반인 동영상이 연예인인 것처럼 알려졌다면 최근엔 동영상 속의 일반인 얼굴을 유명 연예인 얼굴로 변조한 것이 널리 퍼졌다. 문제는 사용되는 기술이 정교해 한눈에 변조된 것인지 파악하기 쉽지 않다는 것이다. 이는 유명인만의 문제가 아니다. 누구나 피해자가 될 수 있는 딥러닝 기반 얼굴변조 페이크앱과 이를 통해 만들어지는 음란물인 딥페이크의 현황과 문제점에 대해 살펴본다.

해외 유명인 가짜 동영상 확산...설현까지 피해

AOA 설현의 소속사 FNC 엔터테인먼트는 19일 "현재 온라인 및 SNS, 모바일 메신저를 통해 유포되고 있는 설현의 합성 사진과 관련해 가능한 모든 자료를 취합하고 유포 경로를 파악해 오늘 고소장을 접수할 계획"이라고 밝혔다. 해당 사진은 정교하게 위조되었고 위조된 동영상도 버젓이 유통되고 있다. 더욱이 연인으로 알려진 지코의 잃어버린 휴대폰에서 유출되었다는 그럴듯한 시나리오와 함께 카톡을 통하여 확산되고 있다. 

테일러 스위프트와 엠마 왓슨의 얼굴이 합성된 페이크(Fake) 영상물이 확산되면서 유명 커뮤니티사이트인 레딧이나 심지어 포르노 사이트조차도 그 위험성을 인지하고 영상물의 등록을 금지하고 있으나 위의 영상물들은 모두 아직까지도 버젓이 해당 사이트에서 유통되고 있다.물론 이 사진은 진짜가 아니다. 그리고 소속사는 유포경로를 확인하겠다고 하지만 최초 업로드는 해외일 가능성이 높다. 이미 몇 개월 전부터 해외 포르노사이트 등에는 국내 유명 아이돌의 얼굴이 정교하게 합성된 동영상들이 많이 유통되고 있다. 이러한 영상들에는 국내외 유명 연예인 뿐만이 아니고 트럼프의 첫째 딸 이방카 같은 정치인 얼굴을 합성한 영상도 있다. 쉽게 진위를 확인할 수 없을 정도로 정교하다.

가짜 영상물들이 갑자기 넘쳐나는 이유는 바로 그러한 영상물들을 쉽게 만들어주는 인공지능 딥러닝 기반 앱이 무료로 배포되고 있기 때문이다. 처음 해당 앱을 레딧에서 유포한 사람의 ID가 DeepFake인 것에 유래하여 현재 딥페이크는 앱 이름뿐 아니라 합성 동영상 자체를 지칭하는 대명사로 쓰인다. 앱의 원래 명칭은 'FakeApp'이다.

소스까지 공개되어 있다. Fakeapp.org

 

딥페이크는 어떻게 작동되나

뉴스톱은 '목소리와 얼굴도 카피하는 시대'를 통하여 인공지능기법인 딥러닝을 활용하여 음성과 동영상 얼굴을 위조하는 것이 가짜뉴스를 생산하는 것에 쓰일 수 있음을 밝힌 바 있다. 과거 포토샵을 통한 이미지 변조보다도 더 극적인 것은 이미 기존에 존재하는 영상의 얼굴을 쉽게 다른 누군가의 얼굴로 변조하여 재생산해 낼 수 있기 때문이다.

딥페이크는 지난해 12월 레딧에 처음 공개됐으며 누구나 손쉽게 사용할 수 있는 것이 특정이다. 단순히 동영상의 얼굴을 특정 얼굴로 대치하는 것을 넘어서 원본 동영상 등장인물의 표정까지 정교하게 대체하기 때문에 육안으로는 진위 구분이 쉽지 않다. 몇 달 사이에 유명 연예인을 대상으로 한 합성 포르노 영상이 확산되면서 미국에서는 큰 사회문제가 되었다. 하지만 딥페이크 사용 목적이 변조 포르노물을 만드는 것에만 있는 것이 아니기 때문에 해당 앱 사용을 막을 수는 없다. 사용법은 이미 유튜브에서 쉽게 확인할 수 있으며 소스까지 공개되어 있다.

다음은 딥페이크 기술을 보여주는 영상이다. 대치하려는 얼굴의 이미지 자료가 많을 수록 당연히 정교함은 높아진다.

FakeApp의 UI

앱의 사용방법은 비교적 단순하다. 원본 영상 하나와 얼굴을 대치하려는 사람의 얼굴 이미지만 있으면 딥러닝을 통하여 원본 영상에 정교하게 프레임별로 얼굴을 대치한다. 보통 다양한 얼굴 각도와 표정의 이미지로서 그 양이 많을 수록 합성의 정교함은 올라간다. 보통 인터뷰 영상에서 프레임별로 얼굴 이미지를 추출하여 사용된다. 당연히 동영상 자료가 많은 유명인이 대상이 되기 쉽다. 하드웨어 사양에 따라 렌더링 시간이 천차만별이나 30분 분량의 영상 합성에 40시간이 소요되기도 한다.
아이러니하게도 해당 앱은 구글이 공개한 딥러닝 AI 기술인 텐서플로우를 기반으로 만들어졌다. 

 

인격모독을 넘어 가짜뉴스에 활용될 위험성

이 앱의 잠재적 파급력은 매우 강하다. BBC는 이 기술이 그럴듯한 시나리와 결합할 때는 인격살인에 준할 정도로 위험한 상황을 낳을 수 있다고 경고한 바 있다. 동의 없이 남의 얼굴을 다른 영상에 조합하여 유포하는 것이 심각한 초상권 침해이자 인격침해다. 2018년 2월 이후 레딧, 트위터 및 주요 포르노사이트는 딥페이크 영상물의 업로드를 금지하고 있지만 확산을 막기는 쉽지 않다.

스타워즈 '라스트 제다이'의 주인공 데이지 리들리의 얼굴을 합성해 만든 동영상의 한 장면.

페이스 스왑핑(Face Swapping) 기술은 컴퓨터그래픽(CG)분야에서 오래 전부터 사용되어 왔고 특히 영화에서 보편화된 기술이기 때문에 해당 기술이나 앱 자체를 막을 수는 없다. 또한 모든 업로드되는 딥페이크 동영상을 완벽하게 필터링하는 것도 불가능하다. 

이 기술의 잠재적 위험은 단지 포르노에 머무는 것은 아니다. 리벤지 포르노나 미성년 얼굴 이미지를 활용한 합성 아동 포르노물의 확산에 악용될 수 있지만 가장 두려운 것은 정치적 가짜뉴스에 활용되어질 때다. 

음성을 원하는 내용으로 조작할 수 있는 기술 역시 공개되어 있는 상황에서 정치인의 합성 영상은 일반적인 가짜 뉴스와는 전혀 다른 파급력을 가질 수 있다. 만약 트럼프 미국 대통령이 북한을 선재공격하겠다는 가짜 연설 영상이 인터넷에 유포됐다고 상상해보자. 한국의 주가지수는 폭락할 것이고 사실관계가 바로잡힐 때까지 수시간동안 큰 혼란이 발생할 것이다. 이런 일이 반복된다면 '진짜 뉴스'도 믿기 힘든 상황이 된다.
이런 문제들을 극복하기 위한 유일한 방법은 진짜 동영상과 가짜 동영상을 구분할 수 있는 워터마크같은 식별자를 두어야 한다는 것이 전문가들의 의견인데 과거 DRM(Digital Right Management) 의 사례처럼 일반화 시키는 것은 거의 불가능에 가깝다.

최근 타개한 스티븐 호킹은 “AI가 인류 문명사에 최악의 사건이 될 수 있다”고 말했다. 문제는 AI 자체에 있는 것이 아니라 이를 악용하는 사람들 때문일 수도 있다. 이쯤되면 진짜 뉴스와 가짜 뉴스의 구별을 독자들에게만 맡기는 것은 분명 한계가 있다. 

이 기사를 공유합니다
오늘의 이슈
모바일버전