때로는 과학기술의 발달이 인류에게 혼란과 오해를 가져오기도 한다. 특히 인공지능(AI)의 발전이 그렇다. 인류에게 과연 이롭기만 할 것인가 하는 우려가 생기는 것이다.
최근 화두가 된 인공지능 챗봇 이루다 사태에서 보는 것과 같이 AI의 결과를 전부 예측하기 어렵다는 측면에서 법제도 마련 및 개발 전 투명성 확보 등 다양한 제재 방식이 있어야 한다는 목소리가 높아지고 있다.
이에 (사)바른과학기술사회 실천을 위한 국민연합(이하 과실연)은 15일 ‘인공지능의 규제 책임론에 대해 : 혼란 진단과 대안 모색’이라는 공개포럼 자리를 마련해 AI 기술에 대한 문제와 이에 대응하기 위한 방안을 심도 있게 논의했다.
AI 서비스가 논란이 될 때마다 인공지능 기술에 대한 우려도 커지고 있다. ⓒ 게티이미지뱅크
인간을 닮아가는 인공지능, 인공지능 발전을 저해하는 의인화
마이크로소프트(MS)가 2016년 출시했던 AI 챗봇 테이와 같이 편견과 차별, 혐오 등 편향된 대화를 주도했던 국내 AI 챗봇 이루다 서비스는 출시한 지 한 달여 만에 서비스가 중단됐다. 이루다 챗봇 논란은 AI에 대한 불편한 인식과 혐오 여론으로 확대되며 개발 과정에서의 보완 제도 마련 및 법적 제재 검토 등 규제를 위한 다양한 논의가 진행되고 있다.
하지만 전문가들은 테이나 이루다 챗봇과 같은 사회적 논란이 생길 때마다 바로 서비스를 중단하고 규제 방법을 강화하는 것은 향후 미래 과학 발전을 저해할 수 있다며 경계했다.
이날 포럼에서 박상철 서울대학교 법학전문대학원 교수는 “최근 일어난 국내 AI 챗봇 이루다 사건은 사실 AI를 의인화시키고 과도한 인격권을 부여해서 생긴 결과”라며 “대화형 에어전트는 현 발달 단계상 완벽한 사전 검열은 불가능하며 인터넷 댓글처럼 사회가 어느 정도 수인해야 한다”라고 주장했다.
박상철 서울대학교 법학전문대학원 교수는 AI를 의인화시키고 과도한 인격권을 부여하고 있다고 말했다. ⓒ 과실연
박 교수는 “AI 챗봇은 단순히 이루다와 같은 순수한 커뮤니케이션 용도로 사용될 뿐만 아니라 전 산업에 걸쳐 고객 접점 관리에 활용될 수 있고 휴머노이드를 개발하는 기초로도 기술적 산업적 가치가 높다. 그런데 이런 일이 발생할 때마다 서비스를 전면 중단해야 한다는 것은 오도된 논의일 수 있다”고 설명했다.
박 교수는 이번 사태를 데이터가 부족해서 발생한 일로 판단했다. 그는 “챗봇의 사상검증은 개발자가 다 예상할 수 없다. 데이터 전부를 검수할 수 없기 때문”이라고 이번 논란의 원인을 분석했다.
김경만 과학기술정보통신부 인공지능기반 정책과장도 너무 법규제를 강제한다던가 실제 적용될 수 있는 상황이 아닌데도 기술적 고려 없이 통제 및 규제를 한다면 지금 막 태동하려는 AI 기술을 저해할 수 있다는 문제가 있다고 동의했다.
정부 역할 중요…사회의 자정작용과 기업의 자율성 고려해야
그렇다면 이 문제는 어떻게 풀어가야 할까. 박 교수는 정부가 규제와 처벌만이 아닌 다른 방면에서 기능을 제공해야 한다고 봤다. 그는 “AI에 대한 시행착오는 어차피 계속 나올 수밖에 없다. 회복할 수 없을 정도의 손해가 아니라면 전면 중단이 아니라 서비스를 진행하면서 개선하는 방향으로 가야 한다”며 “이를 위해 정부의 역할이 중요하다. 정부는 양질의 공공 데이터 지원을 계속 확보 및 지원하는 한편 개발자들이 훈련된 모델의 신뢰성을 측정하고 검증할 수 있는 공적 인프라 개발을 서둘러야 한다”고 제안했다.
15일 (사)바른과학기술사회 실천을 위한 국민연합(이하 과실연)이 개최한 ‘인공지능의 규제 책임론에 대해 : 혼란 진단과 대안 모색’ 공개포럼이 화상회의로 열렸다. ⓒ 과실연
문정욱 KISDI 연구소장도 무조건 규제를 하는 방향은 옳지 않다며 정부가 추진 중인 사람이 중심이 되는 ‘인공지능(AI) 윤리기준’을 소개했다. 이 기준에는 투명성, 인권보장, 프라이버시 보호, 다양성 존중, 침해 금지, 공공성, 연대성, 데이터 관리, 책임성 등 새롭게 제기되는 인공지능 윤리 10개 요건이 제시되고 있다.
문정욱 KISDI 연구소장은 앞으로 AI 규제 방안에 대한 방향으로 사회적 수용성, 개인적 수용성, 정책적 수용성을 제시했다. 이를 위해서는 기업이 인공지능 서비스를 만들 때 사용자들이 인공지능을 사용할 건지 여부를 스스로 결정하게 하고 서비스를 사용하게 되면 통보하는 등 사용자가 제대로 인공지능 서비스를 사용하고 있다는 사실을 인지할 수 있도록 서비스를 개발하는 것이 중요하다.
문 소장은 “사람들이 AI가 사회적 편의에 의해 사용될 것이라는 신뢰성 회복이 우선돼야 한다”며 “관계인에 대한 절차적 권리를 알려주는 장치나 인공지능을 사용할 것인가를 물어보고 내용을 통지받는 등의 절차가 잘 조성돼야 할 것”이라고 말했다.
AI는 인간에게 이로움을 줄 존재라는 사회적 신뢰성을 회복해야 한다. ⓒ 게티이미지뱅크
한편 김대원 카카오 이사는 인공지능 규제와 관련된 기저에는 기업윤리에 대한 불신이 자리 잡고 있다며 사회의 자정작용과 기업의 해결방안을 신뢰해야 한다고 지적했다. 그는 “다른 규제들은 인과성에 기반하는데 유독 인공지능에 대해서는 ‘이렇게 될 것’이라며 미리 예단하고 규제를 만든다. 막연한 가정에 근거한 규제를 한다면 이제 막 걸음마를 떼기 시작한 우리나라 인공지능 기술은 도태될 수 있다”고 지적하고 “또한 규제가 생긴다면 국내 기업에만 한정될 가능성이 높다. 그렇게 되면 다른 외국 기업에 비해 역차별이 일어날 수 있다”며 국제적인 경쟁 체제에서의 국내 AI 시장에 대해 우려했다.
김 이사는 “기업은 출시한 서비스의 역기능에 대한 논란이 터질 때마다 소비자들의 반응에 누구보다 예민하게 대응하고 기술적 문제를 신속하게 해결하려 한다. 정부는 규제나 틀을 새롭게 만들기보다는 기업이 신속하게 처리하고 해결하는 방향을 중심으로 지원이 이뤄져야 한다”고 말했다.