Deepfake 도전은 '더 커질 것입니다'
새 보고서는 딥페이크를 방어하기 위한 권장 사항을 설명합니다.
날짜:
2023년 1월 17일
원천:
노스웨스턴 대학교
요약:
인공 지능(AI)과 외교 정책 전문가의 새로운 보고서에 따르면 딥페이크 기술은 표적이 된 군사 및 정보 작전을 포함하여 훨씬 더 광범위하게 사용되기 직전에 있습니다. 전문가들은 정부의 딥페이크 사용에 대한 행동 강령 개발 요청을 포함하여 불안한 신기술을 처리하는 방법에 대해 보안 공무원과 정책 입안자에게 권장합니다.
인공 지능(AI)과 노스웨스턴 대학교 및 브루킹스 연구소의 외교 정책 전문가가 발표한 새로운 보고서에 따르면 딥페이크를 둘러싼 대부분의 대중의 관심은 대규모 선전 캠페인에 집중되어 있지만 문제가 되는 신기술은 훨씬 더 교활합니다.
새 보고서에서 작성자는 딥페이크 비디오, 이미지 및 오디오와 관련 보안 문제에 대해 논의합니다. 연구자들은 이 기술이 표적이 된 군사 및 정보 작전을 포함하여 훨씬 더 광범위하게 사용되기 직전이라고 예측합니다.
궁극적으로 전문가들은 불안한 신기술을 처리하는 방법에 대해 보안 담당자와 정책 입안자에게 권장 사항을 제시합니다. 저자는 권고 사항 중에서 미국과 동맹국이 정부의 딥페이크 사용에 대한 행동 강령을 개발해야 할 필요성을 강조합니다.
브루킹스는 이번 달에 "딥페이크와 국제 분쟁"이라는 연구 보고서를 발표했습니다.
"특정 개인과 대상을 위해 딥페이크를 쉽게 개발할 수 있을 뿐만 아니라 가장 최근에는 안정적인 확산으로 알려진 AI의 형태를 통한 빠른 움직임은 모든 국가와 비국가 활동가가 보안 및 인텔리전스 운영에 딥페이크를 배포할 수 있는 능력"이라고 저자는 썼습니다. "안보 공무원과 정책 입안자들은 그에 따라 준비해야 할 것입니다."
Northwestern의 공동 저자에는 AI 및 보안 전문가 VS Subrahmanian, Northwestern의 McCormick 공대 컴퓨터 과학 교수 Walter P. Murphy, Buffett Institute of Global Affairs의 Buffett Faculty Fellow, Chongyang Gao 박사가 포함됩니다. Subrahmanian의 연구실에 있는 학생. Brookings Institute의 공동 저자로는 Daniel L. Bynam과 Chris Meserole이 있습니다.
딥페이크는 '약간 어려움'이 필요합니다.
Northwestern Security and AI Lab의 리더인 Subrahmanian과 그의 학생 Gao는 이전에 연구원들이 자신의 딥페이크 비디오를 생성하는 데 사용할 수 있는 새로운 알고리즘인 TREAD(Terrorism Reduction with Artificial Intelligence Deepfakes)를 개발했습니다. 설득력 있는 딥페이크를 생성함으로써 연구자들은 보안의 맥락에서 기술을 더 잘 이해할 수 있습니다.
TREAD를 사용하여 Subrahmanian과 그의 팀은 사망한 이슬람 국가 테러리스트 Abu Mohammed al-Adnani의 샘플 딥페이크 비디오를 만들었습니다. 결과 비디오는 매우 사실적인 얼굴 표정과 음성을 가진 al-Adnani처럼 보이고 들리지만 실제로는 Bashar al-Assad 시리아 대통령의 말을 하고 있습니다.
연구원들은 몇 시간 안에 생생한 비디오를 만들었습니다. 이 과정은 매우 간단해서 Subrahmanian과 그의 공동 저자는 군대와 보안 기관이 라이벌이 몇 분 안에 공무원이나 지도자의 딥 페이크 비디오를 생성할 수 있다고 가정해야 한다고 말했습니다.
저자는 "머신 러닝에 대한 합리적인 배경이 있는 사람이라면 누구나 체계적인 작업과 올바른 하드웨어를 통해 TREAD와 유사한 모델을 구축하여 딥페이크 비디오를 대규모로 생성할 수 있습니다"라고 썼습니다. "확실히 미국의 적을 포함하는 거의 모든 국가의 정보 기관은 거의 어려움 없이 그렇게 할 수 있습니다."
'고양이와 쥐 게임' 피하기
저자는 국가 및 비국가 행위자가 딥페이크를 활용하여 지속적인 허위 정보 노력을 강화할 것이라고 믿습니다. 딥페이크는 전쟁을 합법화하고, 혼란을 조장하고, 대중의 지지를 약화시키고, 사회를 양극화하고, 지도자의 신용을 떨어뜨리는 등의 방법으로 분쟁을 부추길 수 있습니다. 단기적으로 보안 및 인텔리전스 전문가는 잠재적으로 위조된 동영상, 이미지 및 오디오를 식별하는 알고리즘을 설계하고 훈련하여 딥페이크에 대응할 수 있습니다. 그러나 이러한 접근 방식은 장기적으로 효과적이지 않을 것입니다.
"결과는 맬웨어에서 볼 수 있는 것과 유사한 쫓고 쫓기는 게임이 될 것입니다. 사이버 보안 회사가 새로운 종류의 맬웨어를 발견하고 이를 탐지하기 위한 서명을 개발하면 맬웨어 개발자는 탐지기를 피하기 위해 '조정'을 합니다."라고 저자는 말했습니다. . "탐지-회피-탐지-회피 주기는 시간이 지남에 따라 진행됩니다…결국에는 탐지가 불가능해지거나 신속하고 대규모로 수행하기에는 너무 계산 집약적인 종점에 도달할 수 있습니다."
장기 전략을 위해 보고서 작성자는 몇 가지 권장 사항을 제시합니다.
일반 대중을 교육하여 디지털 리터러시와 비판적 추론을 향상시킵니다.
자산을 취급하는 각 개인 또는 조직을 문서화하여 디지털 자산의 이동을 추적할 수 있는 시스템 개발
언론인과 정보 분석가가 정보를 게시된 기사에 포함하기 전에 속도를 늦추고 확인하도록 권장하십시오. "마찬가지로 언론인은 판단과 관련하여 '신뢰 수준'을 논의하는 정보 제품을 모방할 수 있습니다."
인증 코드와 같은 별도 소스의 정보를 사용하여 디지털 자산의 합법성을 확인합니다.
무엇보다도 저자들은 정부가 딥페이크 콘텐츠의 생성 및 배포를 관리하기 위한 강력한 감독 및 책임 메커니즘을 제공하는 정책을 제정해야 한다고 주장합니다. 미국이나 그 동맹국이 딥페이크를 만들어 "불로 불을 지르고" 싶다면 먼저 정책에 동의하고 시행해야 합니다. 저자는 여기에 사이버 보안을 위한 유사한 프로세스를 모델로 한 "Deepfakes Equities Process" 수립이 포함될 수 있다고 말합니다.
저자는 "딥페이크를 생성하고 사용하기로 한 결정은 가볍게 결정해서는 안 되며, 장단점을 신중하게 고려하지 않고서도 안 된다"고 적었다. "특히 분쟁 환경에서 가치가 높은 대상을 공격하도록 고안된 딥페이크의 사용은 광범위한 정부 기관과 기관에 영향을 미칠 것입니다. 각 이해 관계자는 필요에 따라 적절하게 의견을 제시할 기회를 가져야 합니다. 기반의 심의 과정은 민주 정부가 책임감 있게 딥페이크를 사용하도록 보장하는 최선의 방법입니다."
추가 정보: https://www.brookings.edu/research/deepfakes-and-international-conflict/
출처 : https://www.sciencedaily.com/