위기-기회 갈림길에 선 AI 〈1〉 민주주의 위협 비상등-3
2023년 6월 12일 월요일 동아일보
“대책 논의에도 100% 검증은 불가능”
지난해 20대 대선 당시 여야 후보는 AI 기술을 유세에 사용하며 선거운동을 펼치기도 했다. 하지만 이제는 각 정치 진영이나 지지층이 이를 악용할 수 있다는 우려가 나온다. 허위 정보를 만드는 건 쉬어졌지만 이를 판별하기는 갈수록 어려워지고 있기 때문이다.
정수환 숭실대 전자정보공학부 교수 연구팀을 통해 미국 대선 관련 허위 정보에 약간의 추가한 뒤 현상에서 음성 합성 판독 프로그램을 사용하자 ‘진짜 확률 100%’라는 결과가 나왔다. 잡음을 추가하기 전 ‘허위 확률 100%’라고 나왔던 결과가 뒤집힌 것이다. AI 합성 여부는 억양이나 숨소리 등을 통해 확인하는데 잡음이 이를 교란했기 때문이다. 연구팀이 잡음을 추가하는 데 걸린 시간은 5초에 불과했다.
AI 합성 영상도 마찬가지다. 과거 AI 합성 영상은 일반 이용자가 봐도 인물이 고개를 끄덕이거나 돌릴 때 눈코입 배치가 어색한 사례가 많았지만 이제는 일반 이용자가 금방 분별하기 어려운 수준에 올라섰다.
이 같은 우려를 잠재우기 위해 미국과 유럽연합(EU)은 규제 입법에 앞서 AI를 악용하는 행위 등을 규제하기 우한 공동 행동강령 마련에 착수했다. 행동강령의 내용은 아직 공개되지 않았지만 하계와 업계에선 AI 생성 콘텐츠를 표시하는 워터마킹(불법복제 방지 무늬) 의무화 방안과 외부 감사 의무화 등이 거론된다. 하지만 AI로 워터마크를 삭제하는 기술이 동시에 만들어지고 있어 효과가 제한적일 것이란 지적이 나온다. 미국 텍사스주 상원은 2019년 공직 후보자를 비방하거나 선거에 영향을 주기 위한 딥페이크 영상의 제작과 배포를 금지하는 법안을 처음으로 도입하기도 했다.
정 교수는 “(선거 국면에서) AI로 만든 허위 정보가 온라인에서 퍼져 유권자들에게 알려지는 것은 순식간이며 돌이킬 수 없다”며 “(모든 사회 구성원이) AI 기술이 민주주의 가치를 근본적으로 위협할 수 있는 기술이라는 점을 인지해야 한다”고 말했다.