(기사본문)
방송통신심의위원회(방심위) 류희림 위원장이 생성형 인공지능(AI)과 딥페이크 기술의 악용에 대비해, 글로벌 유관 기구들과 국제적 공동대응을 모색했다.
류 위원장은 17일(한국 시간) 미국 워싱턴DC 소재 미국실종학대아동방지센터(National Center for Missing and Exploited Children·넥멕)에 업무협력 방안을 논의하며 이같이 밝혔다.
류 위원장은 "앞으로 생성형 AI와 딥페이크 기술의 악용 등으로 온라인상에 아동 성착취 정보의 유통이 더욱 문제가 될 것"이라며 "이런 시기에 양 기관이 현안을 공유하고 효율적인 공동 대응 방안을 모색하게 된 것은 매우 뜻깊은 일이다"라고 했다.
넥맥 존 시한 수석부사장(착취 아동 및 국제협력 담당)은 위원회와 협력 중인 아동성착취물(CSAM) 해시 DB 공유 영상 처리 프로세스와 NCMEC의 주요정책 등을 설명했다.
넥맥은 1984년 설립된 비영리단체다. 방심위와 지난 2019년부터 디지털 성범죄 대응 현황을 공유하는 등 업무협력을 해왔다. 지난 2021년에는 아동·청소년 성착취 정보 근절을 위한 데이터베이스 공유 업무협약을 체결했다.
류 위원장은 전날 워싱턴 주미 한국대사관에 방문해 구글과 페이스북 등 미국 내 글로벌 플랫폼 사업자들과 불법·유해정보 자율규제와 관련한 정부 차원의 실무적 협력을 요청했다.
출처: 추승현 기자(chuchu@newsis.com
(사견)
1) 딥페이크범죄란 ‘허위 영상물 편집 반포죄’입니다. 현재, 기술이 나날이 발전하면서 성적 목적으로 합성된 영상물이나 사진이 늘어나 딥페이크범죄의 심각성이 대두되고 있는 상황입니다. (ex. 유명인 합성 성적 동영상)
2) 그 뿐만 아니라, 정치적으로도 출마하는 정치인 얼굴과 목소리를 합성하여 영상을 제작후 정치적 경쟁 속 상대를 공격하는 수단으로도 사용되고 있습니다.
3) 그렇기 때문에 딥페이크 범죄를 바로잡을 수 있는 방안을 마련하여야 한다고 생각합니다. 현재 검찰이 데이터를 분석하여 영상의 진위여부를 판별할 수 있는 기술을 개발 중에 있다고 합니다. 이 부분에 대해서 제 생각은 이러한 사후적인 방법만 마련을 한다면 피해자의 정신적 상흔은 치유되지 않기 때문에 사전적인 예방책을 마련하는 것이 필요하다고 생각합니다.
(추가자료)
https://youtu.be/xsuyrNpl1oQ?si=F_cVUKDmd71TyKLB
첫댓글 생성형 인공지능(AI)과 딥페이크 기술의 악용에대해 심각하게 우려하는 입장이란다.
이런 범죄를 예방하고 대응하는 국제적인 공등방안이 구체적으로 확립되어야 한다고 생각한다.
딥페이크를 악용한 범죄는 예전부터 빈번히 일어나고 있었습니다. 기술이 발전하는 것은 좋으나 갈수록 디테일하고 교묘해지는 것 같아 제대로 된 규제가 필요할 것 같습니다.