과학

딥페이크: 가짜 비디오가 사회를 혼란에 빠뜨릴 가능성

구름산신작가 2021. 11. 1. 21:07
반응형

변형된 비디오와 포토샵 된 이미지를 만나는 것은 인터넷에서 거의 통과 의례입니다. 요즘에는 소셜 미디어를 방문할 때 필터를 먹인 간단한 셀카든, 매우 화려한 밈이든, 사운드트랙을 추가했거나 특정 요소를 향상하기 위해 편집된 비디오든, 편집이나 조작을 거치지 않은 콘텐츠를 찾기가 힘들 정도입니다. 

 

그러나 일부 형식의 미디어는 분명히 편집을 감지하기 어려울 수 있습니다. 최근 몇 년 동안 "딥페이크"라는 용어를 들어보셨을 것입니다. 2017년에 딥 러닝 알고리즘을 구현하여 실제처럼 보이는 비디오와 이미지를 만드는 비디오와 이미지를 설명하기 위해 처음 등장했습니다.

존 F. 케네디(John F. Kennedy) , 버락 오바마(Barack Obama) , 블라디미르 푸틴(Vladimir Putin) 과 같은 전현직 세계 지도자들도 딥페이크 비디오의 대상이 되었으며, 실제로 말하거나 행동하지 않은 것을 그렇게 한 것처럼 조작한 영상이 곳곳에서 보입니다. 최근 몇 년 동안 딥페이크의 부상이 대중 매체에서 논의되었지만 해당 주제에 대한 학술적 연구는 여전히 상대적으로 희박합니다.

그러나 연구자들은 이러한 조작된 이미지와 비디오가 몇 년 뒤엔 보안 위험을 증가시킬 수 있다는 우려를 표명하고 있습니다. 지난주 크라임 사이언스(Crime Science)의 한 보고서에 따르면 딥페이크는 앞으로 15년 동안 다른 AI 기반 기술 중에서 가장 심각한 보안 위협이 될 것이라고 합니다.

연구원들은 결론에서 “인간은 자신의 눈과 귀를 믿는 ​​경향이 강하다. 따라서 우리가 소비하는 미디어가 가짜라고 보기에 너무 그럴싸해 보이면 속임수에 넘어가기 쉽다. 그리고 온라인 딥페이크의 양은 계속 증가하고 있으며 예측할 수 없다."라고 말합니다. 

 

SMALL

 

무엇이 딥페이크를 만드는가?

 

딥페이크라는 용어는 보다 구체적으로 말하면 "딥 러닝(deep learning)"과 "가짜(fake)"의 합성어입니다. 이 특정 유형의 미디어는 전자 신경망에 기반하여 오디오와 비디오를 변경합니다.

딥페이크를 만드는 기술은 사용자가 때로는 엄청난 가격을 지불하여 자신이 원하는 것을 만들 수 있도록 하는 소수의 프로그램과 웹사이트가 등장하면서 수년에 걸쳐 더 쉽게 액세스할 수 있게 되었습니다 . 그럼에도 불구하고 인터넷의 한 구석을 채우고 있는 많은 딥페이크는 그다지 설득력이 없다고 죠지오 파트리니(Giorgio Patrini)는 말합니다. 그는 2018년부터 딥페이크의 확산을 연구해 온 암스테르담의 회사인 센서티(Sensity)의 CEO이자 설립자입니다. 파트리니는 그가 접한 대부분의 딥페이크가 동일한 몇 가지 오픈 소스 도구로 만들어졌다고 말합니다. "그 이유는 사용이 매우 쉽고 잘 관리되고 커뮤니티에 알려져 있기 때문이다."라고 그는 덧붙입니다. 그리고 파트리니가 말했듯이 온라인에서 찾을 수 있는 대부분의 페이크 미디어 콘텐츠는 동일한 몇 가지 방법을 사용하여 디지털 영상을 변경합니다.

최근 페이스북은 전문가들이 딥페이크를 탐지하기 위한 새로운 알고리즘을 구축 한 대회 결과를 발표했습니다. 우승자는 노출된 AI 변경 미디어의 82%를 탐지할 수 있었습니다. 일부 딥페이크는 현재의 탐지 알고리즘이 여전히 식별하기 어려운 방법을 사용하여 만들 수 있지만 파트리니는 온라인 상의 딥페이크 제작자는 비디오를 만들 때 더 저렴하고 간단한 방법을 사용하는 경향이 있다고 말합니다. 현재 우리가 가지고 있는 탐지 소프트웨어는 실제로 온라인에서 발견되는 방대한 양의 미디어를 분류하는 데 매우 성공적이라고 덧붙였습니다.

"우리가 찾은 딥페이크 비디오의 99% 이상은 얼굴 교환을 기반으로 한다."라고 그는 말합니다. "말과 입술의 움직임을 바꾸거나 몸의 움직임을 바꾸는 등 가짜 비디오를 만드는 다른 방법이 있다." 그러나 지금까지 이러한 방법은 딥페이크 감정가들 사이에서 가장 인기 있는 방법이 아니므로 현재의 알고리즘은 여전히 ​​AI 변경 콘텐츠의 많은 부분을 제거할 수 있다고 파트리니는 말합니다.

 

728x90

 

성인 콘텐츠 문제

 

2019년 센서티가 딥트레이스(Deeptrace)라는 이름으로 딥페이크 현황에 대한 보고서를 발표했을 때 온라인에서 총 14,678개의 AI 변경 동영상을 감지했습니다. 그중 96%가 성인 콘텐츠에 사용되었습니다.

그리고 사실 최초의 딥페이크 영상도 같은 이유로 만들어졌습니다. 2017년에 레딧의 사용자는 동의 없이 얼굴을 성인 영화 배우의 몸으로 바꾼 여성 유명인의 조작된 비디오를 게시하기 시작했습니다. 레딧은 2018년에 사용자가 이러한 노골적인 딥페이크를 게시하는 것을 금지했지만 보고서에 따르면 윤리적으로 문제가 있는 다른 사이트와 앱이 여전히 그 자리를 대체하는 것으로 드러났습니다.

딥페이크에 대한 언론의 광범위한 보도에도 불구하고 음란물 편집은 웹 전반에 퍼질 AI 변경 콘텐츠의 지배적인 형태였습니다. 그리고 지금까지 여성은 거의 항상 표적이었습니다. 센서티의 2019년 보고서에 따르면 탐지된 딥페이크 피해자의 100%가 여성이었습니다. 

 

불과 2개월 전 센서티는 온라인에서 총 49,081개의 딥페이크 비디오를 확인했습니다. 이는 그 수가 6개월마다 거의 두 배로 증가하고 있음을 보여주는 추세입니다. 최근에 파트리니는 유튜브, 인스타그램 및 트위치에서 인기 있는 인터넷 인물 또는 영향력 있는 사람들을 대상으로 하는 비디오가 증가하는 것을 관찰했다고 말합니다. "아마 1년 전이라면 우리는 콘텐츠의 대부분이 그저 연예계 출신의 유명 연예인을 다룬다고 보았을 것이다."라고 그는 말합니다. 딥페이크 콘텐츠 제작자들은 소위 '셀럽' 뿐 아니라 온라인에서 활동적인 삶을 영위하는 개인(종종 여성)도 대상으로 합니다.

 

확산을 막을 수 있습니까?

 

AI로 변형된 미디어가 모두 나쁜 것처럼 보일 수 있지만 기술 자체가 본질적으로 해를 끼치는 것은 아닙니다. "많은 사람들에게 딥페이크는 이미 본질적으로 부정적인 의미를 갖고 있다."라고 파트리니는 말합니다. 그러나 그 뒤에 있는 기술은 번역 서비스나 영화 및 TV 프로그램의 시각적 트릭과 같은 창의적인 프로젝트의 호스트에 사용될 수 있습니다.

 

닉슨 딥페이크를 예로 들어봅시다. 감독은 관객을 호도하거나 아폴로 11호가 임무를 잘못했다고 생각하게 만들기 위해 자신의 창작물을 발표하지는 않았습니다. 오히려 그는 자신이 딥페이크로 만든 페이크 영상으로 실험적인 새로운 기술을 사용하여 사람들에게 딥페이크 비디오 편집이 얼마나 그럴싸해 보이며 설득력을 갖는지 교육했습니다.

그러나 딥페이크가 이런 계몽에만 쓰이는 것은 결코 아닙니다. 이미 악의적인 행위를 수행하는 데 많이 사용되고 있습니다. 파트리니는 동의 없이 조작된 성인 콘텐츠 외에도 은행 계좌나 비트코인 ​​지갑을 열려고 하는 사람을 사칭하는 데 딥페이크가 사용되는 경우도 증가했다고 말했습니다. 이러한 프로세스에는 영상 확인이 필요할 수 있는데 딥페이크가 카메라를 속일 수 있다는 것입니다. 

파트리니는 "정교함을 통해 사람들의 신분증을 위조하고 비디오에 나타나는 방식도 위조할 수 있다."라고 말합니다. 때로는 낯선 사람의 이름으로 계정을 개설하거나 가짜 이름으로 존재하지 않는 페르소나를 만들 수도 있습니다. 파트리니는 현재로서는 이러한 종류의 속임수가 널리 퍼져 있지 않은 것으로 보이지만 더 사악한 딥페이크 응용 프로그램이 나타날 수도 있다고 경고합니다. 

 

이 포스팅은 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다.

반응형