국내 정치·연예계도 '딥페이크' 몸살…퇴출 만만찮네

윤석열 대통령 딥페이스 영상 등장…방심위, 긴급심의 예정

컴퓨팅입력 :2024/02/22 17:32    수정: 2024/02/23 09:04

인공지능(AI) 기술로 제작된 딥페이크 영상과 이미지가 국내외 정치계와 연예계에서도 기승을 부리고 있다. 해외에선 AI로 만든 콘텐츠에 꼬리표를 붙이는 등 퇴치를 위해 노력하고 있지만 여전히 마땅한 해결책이 보이지 않고 있다. 

22일 서울경찰청은 윤석열 대통령 모습을 담은 딥페이크 영상을 발견했다고 밝혔다. 현재 방송통신심의위원회에 페이스북과 틱톡에 업로드된 '가상으로 꾸며본 윤 대통령 양심 고백 연설' 딥페이크 콘텐츠 삭제를 요청한 상태다. 

경찰청은 "인스타그램을 비롯한 페이스북, 틱톡 사용자가 해당 딥페이크 영상을 동일한 링크 주소로 퍼뜨린 것을 확인했다"며 "현재 삭제·차단을 요청한 상태다"고 설명했다. 방심위는 내일 통신심의소위원회를 개최하고 해당 안건을 심의함으로써 콘텐츠를 삭제·차단할 예정이다.

윤석열 대통령 모습을 담은 딥페이크 영상이 틱톡, 인스타그램 등에서 나왔다. (사진=틱톡)

정부는 1월 29일부터 AI 기반 딥페이크를 활용한 선거운동을 전면 금지했다. 그럼에도 딥페이크 활용 정치 콘텐츠가 연이어 등장하고 있다. 중앙선거관리위원회 발표에 따르면, 지난달 29일부터 이달 16일 사이 딥페이크를 활용한 선거 운동 행위로 공직선거법을 위반한 사례는 129건이다.

딥페이크는 정치계뿐 아니라 연예계까지 강타하고 있다. 유명 연예인의 얼굴과 음성을 조작해 영상을 제작하는 식이다. 이를 활용해 투자를 권유하는 사기 범죄가 발생하는 추세다.

올해 초 조인성, 송혜교 얼굴과 음성으로 딥페이크를 만들어 투자를 권유하는 사기 범죄가 발생하기도 했다. 영상 속 두 연예인은 행사 개최에 대한 인사말을 남기고 투자를 권유하는 멘트를 했다. 그러나 해당 영상은 가짜 영상인 것으로 드러났다. 

올해 초 조인성, 송혜교 얼굴과 음성으로 딥페이크를 만들어 투자를 권유하는 사기 범죄가 발생하기도 했다. (사진=유튜브)

제작자는 이를 활용해 투자자들에 접근했고, 유명 연예인이 자신의 투자 프로젝트에 참여하고 있다고 거짓말을 한 셈이다. 현재 경찰이 해당 사건을 수사 중이다. 경찰 측 설명에 따르면 가짜 영상을 믿고 돈을 투자하다가 피해 본 사례가 점차 느는 추세다.

해외서 딥페이크 규제 위한 공개 서한 시작…벤지오 교수 포함

해외 전문가들은 딥페이크가 민주주의의 최대 위협 요소라며 위기의식을 가져야 한다고 목소리를 높이고 있다. 

외신들에 따르면 AI 석학 요슈아 벤지오 캐나다 몬트리올대 교수 등 600명 넘는 전문가와 일반 시민들이 딥페이크에 강력한 규제가 적용돼야 한다는 서한에 서명했다. AI 기술로 만든 콘텐츠가 인간을 속임으로써 사회적 혼란을 심각히 야기하고 있다는 이유에서다. 

딥페이크 규정하자는 서한. AI 전문가뿐 아니라 일반 시민도 서명할 수 있다. (사진=오픈레터)

서한 명단에는 벤지오 교수를 비롯해 뉴욕대 게리 마커스 뉴욕대 명예교수, 하버드대 스티븐 핑거 심리학 교수가 포함됐다. 오픈AI와 구글 딥마인드 연구원도 서명했다. 

이들은 딥페이크가 사회적인 위협을 일으킬 것이기 때문에 이를 막기 위해 공급망 전반에 강력한 의무를 부과해야 한다고 주장했다. 모든 딥페이크 아동음란물을 불법으로 규정하고, 딥페이크를 특정 의도로 온라인에 퍼뜨릴 경우 처벌을 받도록 해 달라는 요청도 담겼다. 

관련기사

이런 움직임이 일고 있는 것은 지난해부터 딥페이크가 해외 정치계와 연예계에 급속히 퍼졌기 때문이다. 특히 올해 대선을 앞둔 미국이 딥페이크로 몸살을 앓고 있다. AI 기반 가짜 영상이 급속히 온라인에 퍼지면서 미국 여론에 치명타를 입혔다. 미국 팝가수 테일러 스위프트의 딥페이크 가짜 광고를 비롯한 조 바이든 대통령의 딥페이크 음성, 수갑 찬 트럼프 전 미국 대통령의 가짜 이미지가 연달아 확산됐다.

지난해부터 딥페이크가 해외 정치계와 연예계에 급속히 퍼졌다. (사진=뉴스원)

현재까지 딥페이크를 명확히 차단할 방안은 마련되지 않았다. 글로벌 빅테크가 딥페이크를 차단하기 위해 AI로 만든 영상과 이미지에 특정 꼬리표를 붙이는 방식이 전부다. 다만 어떤 이미지와 영상에 해당 꼬리표를 붙여야 하는지 명확한 기준은 없다. 꼬리표를 기술적으로 지울 수 있을뿐더러 기업마다 적용하려는 꼬리표 유형, 부착 방식, 적용 기술 모두 달라 실효성 우려가 나오고 있다.