가짜 뉴스, 가짜 이미지, 가짜 음성 등 ‘가짜’가 여기저기서 판치고 있다.
최근 인공지능 기술이 향상됨에 따라 진짜보다 더 진짜 같은 ‘가짜’를 만들어내면서 사회적·국가적 혼란을 야기하고 있는데, 그 배경엔 ‘딥페이크(deepfake)’ 기술이 존재한다.
지난 6월 넷플릭스에서 공개된 드라마 ‘셀러브리티’에서 딥페이크 기술이 반전 요소 장치로 활용됐다. 드라마 속 주인공 ‘서아리’가 SNS 라이브 방송을 통해 사람들과 소통을 하며 전반적인 스토리를 이끌고 가지만, 사실 이는 주인공이 아닌 완전히 다른 사람임이 밝혀져 시청자들을 경악게했다.
인공지능 딥페이크 기술을 통해 사람의 얼굴 및 목소리를 ‘진짜’처럼 가장하며 사회적으로 큰 파장을 일으킬 수 있다는 것을 보여주는 장면이었다.
AI가 낳은 딥페이크, 정체가 뭘까
딥페이크는 인공지능 학습 기술의 주축인 ‘딥러닝(Deep Learning)’과 ‘가짜(Fake)’의 합성어다. 이에 활용되는 ‘생성적 적대 신경망(Generative Adversarial Network, GAN)’은 대립관계에 있는 두 개의 신경망이 서로 경쟁하며, 더 나은 콘텐츠를 만들어내는 강화 학습 AI 모델이다.
가령, 가짜 돈을 더욱 정교하게 만들기 위해 노력하는 위조지폐범과 그 지폐를 판별하기 위해 노력하는 경찰이 서로 경합하는 과정으로 이해할 수 있다.
최근 이 기술은 크게 진전돼 특정 사람의 행동이나 목소리 등을 점차 구분하기 힘든 수준에 이르렀다.
지난 2일 영국 유니버시티 칼리지 런던(UCL) 연구진은 529명의 참가자에게 딥페이크 음성을 들려준 결과, 4명 중 1명은 가짜 음성을 구분하지 못했다고 밝혔다.
문제는 이를 악용해 유튜브나 인스타그램 등 각종 SNS 및 영상 콘텐츠 내에서 이미지를 합성하거나 조작하는 범죄 사례가 급증하고 있다는 것이다.
또한, 사람의 얼굴과 목소리를 모방해 가족들 대상으로 피싱 범죄를 저지르는가 하면, 여론을 조작하기 위해 가짜뉴스를 생성하거나 프로필 사진을 무단 도용해 성인물을 제작하는 등 그 악용 사례가 다양화되고 있어 사회적·국가적으로 그 불안감이 고조되고 있다.
‘가짜’잡는 기술 등장, 해결사 될까
딥페이크의 위협이 가속화되자, 이에 대한 기술적 대응이 마련되고 있다.
UC 리버사이드(University of California, Riverside)의 연구팀은 지난해 딥페이크 비디오에서 조작된 얼굴 표정을 감지하는 심층 신경망 모델을 개발했다. 연구원들은 얼굴 표정 조작 감지(Expression Manipulation Detection, EMD) 기술을 통해 실험을 수행하며. 조작된 영상의 99%를 정확하게 감지했다고 밝혔다.
목소리 합성을 탐지하는 ‘음성 워터마크’ 기술도 등장했다. 스타트업 리젬블 AI는 가짜 음성을 쉽게 탐지할 수 있는 ‘PerTH’ 생성 음성 워터마킹 기술을 고안해냈다.
일각에선 딥페이크 기술이 영상을 비롯해 오디오, 사진, 문서 등 다방면으로 활용되고 있다는 점에서 나쁜 기술만은 아니라고 주장한다.
실제로 지난 2021년 2월 ‘SBS 그것이 알고 싶다’에서 모자이크 대신 딥페이크 기술을 활용해 범죄 피해자의 신변보호와 익명성을 보장하기도 했다.
딥페이크, 착한 활용 가능할까
위의 사례처럼 딥페이크가 긍정적은 용도로만 쓰일 수 있다면, 미래에 새로운 가능성을 제시하는 차세대 인공지능 기술로 각광받을 수 있을 것이다.
하지만 현실에 끼치고 있는 영향을 바라봤을 때, 향후 딥페이크 기술은 더욱 고도화될 것이고 그에 따라 범죄율은 높아질 것이다. 이에 대한 대응 기술 및 정책을 적용하면서 딥페이크가 안전과 신뢰를 바탕으로 사회·개인에 긍정적 영향력을 행사하기를 기대해 본다.