선관위 “내년 총선 AI로 허위사실 유포 가능성… 대응책 강구”
[민주주의 위협하는 AI]
여야도 “악용 차단” 입법 채비
내년 4월 총선을 앞둔 정치권에서도 ‘챗GPT’로 대표되는 생성형 인공지능(AI)이 거짓 정보 대량 유통, 허위 선전·선동 이미지나 영상물 배포 등 여론 조작에 악용될 수 있다는 우려가 커지고 있다. 이에 따라 중앙선거관리위원회는 관련 대응책 마련에 들어갔고 여야도 규제 법안을 논의할 태세다.
학계와 정치권에서는 AI가 고도화되면서 “내년 총선이 AI 등을 통한 여론조작이 벌어지는 첫 무대가 될 수 있다”는 분위기다. 장병탁 서울대 AI연구원 원장(컴퓨터공학과 교수)은 “정당 편향성이 담긴 글, 이미지, 영상, 음성 등 다양한 형태의 AI 생성물이 유포될 수 있다”고 했다.
중앙선관위도 지난해 ‘AI 기술 발전에 따른 선거운동 제도개선 방안 연구’ 등 관련 연구용역을 의뢰하고 대비책 마련에 나섰다. 이미 지난해 대선 선거운동 과정에서 ‘딥페이크’ 기술을 활용한 영상이 논란이 됐던 만큼 관련 규정을 마련하겠다는 의도다. 선관위 관계자는 “생성형 AI가 허위사실 공표 등 위법 행위에 활용될 수 있다고 보고 대응 방안을 강구 중”이라고 말했다.
여야도 관련 입법에 속도를 낼 채비를 하고 있다. 국회에는 딥페이크 영상을 통한 선거운동을 제한하는 공직선거법 개정안 등이 발의돼 있다. 국민의힘 핵심 관계자는 “AI를 선거에 악용하는 행위에 대해서는 법적 규제가 불가피하다”고 했고, 더불어민주당 역시 “제도가 따라가기 어려운 상황이니 대처 방안을 서둘러 논의해야 한다”고 밝혔다.
조권형 기자, 김은지 기자, 최지원 기자