멘로 파크의 비영리 연구 단체 SRI International 이 국방부 연구 기관 DARPA (Defense Advanced Research Projects Agency)에서 가짜 뉴스와 싸울 수있는 세 가지 프로젝트를 위탁했다. 즉 DARPA의 Media Forensics (미디어 범죄 수사) 사업은 동영상과 사진이 콘텐츠를 의도적으로 변경되었는지를 판정하는 도구를 개발하고있다.
그런 콘텐츠에서 가장 악명 높은 것이 " 딥 페이크 (deepfakes) "라고하는 녀석이다. 보통 그것은 음란 사진과 비디오에 유명 인사와 인기 스타의 얼굴 만 붙여 넣기는 포르노가 많다. 딥 가짜를 만드는 소프트웨어는 간단하게 만들 수 있으며 누구나 사용할 수 있지만, 지금의 비디오 분석 도구는 가공 된 영상과 실제 영상을 구별 할 수 없다.
이 난제를 해결하기 위해 조직 된 것이 Media Forensics 그룹 이다 :
"DARPA의 MediFor 사업은 우수한 연구자를 모아 디지털 이미지 기술 분야를 전복하고자한다. 그것은 현재로서는 변조 (介山)가 우위에있는 분야이며, 그것을 이미지 및 비디오의 진위를 자동으로 판정 기술을 개발하고 종단 간 미디어 범죄 수사 사업에 활용함으로써 붕괴시키고 싶다.
그 기술의 개발에 성공하면 MediFor 사업은 변조를 자동으로 감지하고 변조 방법에 대한 자세한 정보를 제공하고 비쥬얼 미디어의 전반적인 신뢰성에 대한 판단에 따라 문제있는 이미지와 비디오의 사용에 관한 의사 결정을 지원할 수있다. "[이것은 사용할 수 없다는 판정을 돕는다.]
비디오가 특히 위험한 애플리케이션이지만, 변조은 정지 이미지에서도 검출이 곤란하고, DARPA는 그것도 연구 과제로하고있다.
DARPA의 Media Forensics 그룹, 약칭 MediFor 응용 프로그램의 모집을 2015 년에 시작 공식적으로 2016 년에 시작, 2020 년까지 예산이 붙어있다. 이 프로젝트에서 SRI International은 암스테르담 대학과 스위스 Idiap Research Institute의 Biometrics Security & Privacy 그룹 과 긴밀하게 협력한다. 암스테르담 대학에 대한 자세한 내용은 그들의 종이 " Spotting Audio-Visual Inconsistencies (SAVI) in Manipulated Video"를 보라. Idiap의 연구 그룹은 개악 된 영상에 존재하는 시청각의 상충을 찾는 4 가지 기술에 초점을 맞추고있다. 그들은 1) 입술의 동기화 분석, 2) 화자의 불일치 나 모순의 검출 3) 현장의 불일치 감지 4) 끊김이나 삽입의 판정이다.
이 사업에서 위탁 한 연구는 유망성이 인정된다. 지난해 6 월 열린 첫 번째 테스트에서는 수백 개의 비디오 중에서 개악 된 비디오의 두 특징 "이야기의 일관성과 장면의 불일치"를, 75 %의 정확도로 찾을 수 수 있었다. 2018 년 5 월에는 같은 테스트를 더 대규모로 실시하고 그 기술을 연마 대량의 테스트 영상을 확인할 수있게한다.
이 프로젝트 자체는 군사 목적 이지만, 연구팀은 앞으로이 사업의 목적은 규제 당국이나 언론과 공공 단체 등이 더 악성 종류의 가짜 뉴스와 싸워 나가기위한 주요 무기로 될 것이라고 믿고있다 .
"가까운 장래에 비디오 개악 및 합성 기술이 크게 발전하는 것으로 예상하고있다"SRI International의 대표자가 이렇게 말했다.
"그런 기술이 있으면 호비이스토와 해커도 매우 사실적인 영상을 만들어 그 사람이하지 않았다 / 말하지 않았다는 것을을하고있다 / 말한 것처럼 보이게 만들 수있을 것이다."