AI 챗봇 '이루다'가 논란 끝에 11일 서비스를 일시 중단했다. '20대 여성'으로 설정된 AI는 처음부터 성적 발언과 모욕의 대상이 됐다. 혐오·차별 발언을 학습해 그대로 내뱉기도 했다. 개인정보가 포함된 카카오톡 대화 데이터를 분명한 동의 없이 학습에 이용한 것도 문제가 됐다.
AI는 왜 '젊고 상냥한 여성'이어야만 할까 성별 고정관념 강화하고 여성혐오·모욕 타겟 되기 쉬워
문제의 '이루다' 챗봇은 '20대 여대생'으로 설정됐다. 상냥하고 애교 섞인 말투가 특징이다. 개발사 '스캐터랩'은 "예상 사용자층인 10~30대의 중간(20살) 정도가 친근감을 줄 거라고 봤다"며 남성 버전도 출시 예정인데 여성 버전이 먼저 나왔을 뿐이라고 밝혔다.
여성 AI 연구자들은 챗봇이 '젊고 상냥하며 수동적인 여성'으로 설정된 게 문제의 근원이라고 지적했다. 여성에 대한 편견에 기초해 학습된 AI가, 이미 여성에 편견을 가진 사용자들을 만나 사태가 커졌다고 봤다. 2016년 마이크로소프트가 선보인 챗봇 '테이(Tay)'도 '10대 여성'으로 설정됐는데 대중에 공개하자마자 온갖 여성혐오적·모욕적 메시지가 쏟아졌다.
"챗봇을 20대 여성으로 설정한 것부터 편향적이다. '수동적이고 애교 많은 말투'도 데이터 학습만으로 얻었다고 보긴 어렵다. 20대 여성 데이터를 필터링해 얻었다고 해도 모든 20대 여성의 말투가 저렇진 않다. 의도한 결과로 보인다. 개발진 다수가 남성이었는데 그 영향도 배제할 수 없다고 본다." (자연어처리(NLP) 연구 중인 S연구원)
유네스코 "AI의 '여성화'가 성차별 강화" 성별 부각 없는 AI 개발도 늘어
AI의 '여성화'에 대한 비판은 '이루다봇' 이전에도 꾸준히 제기됐다. 애플 '시리', 아마존 '알렉사', 마이크로소프트 '코타나', KT '기가지니', SKT '누구'.... 인간의 일을 돕거나 인간을 기분 좋게 하려고 개발된 AI는 대부분 '젊고 친절한 여성'으로 기본 설정됐다.
최근에는 아예 AI의 성별을 부각하지 않은 사례도 늘고 있다. 구글의 챗봇 '메나', 페이스북 '블렌더' 등이다. 2019년 미국 NGO '이퀄 AI(Equal AI)'는 최초로 성 정체성 없는 AI 목소리 '큐(Q)'를 선보였다.
안혜연 한국여성과학기술인지원센터(WISET) 소장은 "데이터 편향을 완전히 거를 수는 없겠지만, 최소한 여성이 알고리즘 설계나 디자인, 테스트에 참여할 수 있다면 여성에 대한 고정관념이 담긴 데이터는 덜 쓰이지 않겠나. 적어도 위험 가능성을 미리 빠르게 감지할 수 있을 것"이라고 했다.
"왜 AI를 '인간화'해야 하느냐"는 문제 제기도 나왔다. 인간-컴퓨터 상호과정을 연구하는 K씨는 "왜 그게 기술의 지향점이 돼야 하는지부터 고민했으면 좋겠다. 인간처럼 행동하지만, 인간처럼 존중할 필요 없는 대상이 계속 생기면 결국 인간이 인간을 대하는 태도에 영향을 끼치게 되지 않을까"라고 말했다.
첫댓글 말머리
오 그러게 인공지능을 인간처럼 만들필요가 있을까 안그래도 되는데..
기사댓글들 참 무식하다..
기사에 댓글 좀 써주자! 쟤네 지들이 여론인줄 알고 멍청한 소리 지껄일라
무식하다 무식해
아 ㅅㅂ 존나화나네
알페스가 n번방이라니 ㅋ 진짜 어이없다
아 진짜 댓글들 보니 ㄹㅇ 나라의미래가 걱정이다.....
하고싶은말 여기 댓글말고 저기가서 쟤네한테 해주자
롸 저거 뭐야 저 유도 대화;; 처음 봐 미친
기사 댓글달고왔다 ㅅㅂ존나 분탕치고있네
진ㅉ 저새끼들은 그냥 ㅂㅅ이다...