|
<평론>
로봇이 거짓말을 하는 까닭
- 「거짓말 로봇」과 『로봇의 별』 견주어 읽기
정소금
1. 로봇=무기물
동물계(Animalia) 척삭동물문(Chordata) 포유강(Mammalia) 영장목(Primates) 사람과(Hominidae) 사람속(Homo) 사피엔스종(Sapiens)
‘호모 사피엔스’는 속과 종을 함께 이르는 말이다. “별빛을 흉내낸 인공조명이 제아무리 현란해도, 지구의 모래알보다 더 많다는 별을 따라잡을 수는 없”듯이, 행성은 항성이 아니고, 안드로이드(android)는 호모 사피엔스가 아니다.
휴머노이드(humanoid)는 사람처럼 두 발로 직립하는 ‘인간형 로봇’을, 안드로이드는 겉모습과 행동까지 차이를 알아차리기 어려울 만큼 사람과 닮은 ‘인조인간 로봇’을 일컫는다. 우리나라 카이스트의 휴보처럼 2족 보행을 하는 기계 로봇은 휴머노이드, 2017년 사우디아라비아 시민권을 부여받은 인공지능 소피아가 더 발전하면 SF에서 다루어지는 안드로이드로 볼 수 있겠다. 그러므로 안드로이드가 사람과 구별하기 어려울 정도로 발전하더라도 휴머노이드와 마찬가지로 무생물이므로, 자기 복제와 성장이 불가능하다는 점에서, DNA를 가진 생명체인 클론(복제인간)과는 분명히 다르다.
그런데 SF에서 안드로이드를 너무 쉽게 사람과 동일시함으로써 문제가 발생한다. 무기물인 로봇이 굳이 ‘의자에 앉아서’ 충전한다거나 ‘쉬어야 한다’는 설정은 유기체로 인식하는 오류로 보인다. 로봇은 냉장고나 청소기처럼 피곤함을 느끼지 않는 까닭이다.
언어학자 놈 촘스키(Noam Chomsky)는 “지금으로부터 약 8만 년 전에 ‘두뇌의 회로가 살짝 재배치되는’ 특별한 신경생물학적 사건이 발생하여 우리의 조상들이 언어 능력을 획득했고, 그 후로 인지력이 폭발적으로 높아지면서 모든 인류에게 언어가 전파되었을 것으로 추측”한다. 그리고 사람은 언어를 가지면서 속임수를 쓰게 되었을 것이다. 하얀 거짓말부터 사기와 기만까지.
로봇에게 사람처럼 언어 능력을 부여하면, 사람을 속일 수도 있겠다는 상정은 흥미진진하다. 그리고 「거짓말 로봇」(정명섭, 『로봇 중독』, 별숲, 2018)과 『로봇의 별』(이현, 푸른숲주니어, 2011)에 나오는 로봇이 거짓말을 하게 되는 상황과 거짓말을 한 결과가 서로 다르다는 사실은 흥미롭다. 이 글에서는 SF에서 로봇이 거짓말을 하게 된 방법과 로봇이 거짓말을 하게 된 까닭을 살펴보고, 로봇 윤리에 대해 숙고해 보기로 한다.
2. 로봇은 어떻게 거짓말을 하게 되었을까?
- 「거짓말 로봇」과 「허비-마음을 읽는 거짓말쟁이」
단편 「거짓말 로봇」과 「허비-마음을 읽는 거짓말쟁이」(아이작 아시모프, Liar!, 1941, 김옥수 옮김, 『아이, 로봇』, 우리교육, 2008)에는 사람에게 거짓말을 하는 로봇이 나오는데, 로봇이 거짓말을 하게 된 방법은 전혀 다르다. 「거짓말 로봇」에서 P-23호와 「허비-마음을 읽는 거짓말쟁이」에서 RB 34호, 허비가 거짓말을 할 수 있게 된 방법을 견주어 보자.
먼저, 「거짓말 로봇」에서는 거짓말 로봇을 테스트하는 장면에서 시공간적 배경을 효과적으로 보여 준다. P-23호가 거짓으로 대답을 하고 있으므로, 실제로 인류는 핵전쟁으로 파괴된 지구에서 화성으로 이주하였으며, 화성에서는 인공지능(Artificial Intelligence) 로봇에게 전적으로 의존하고 있는 상황이다.
“인류는 핵전쟁으로 파괴된 지구를 버리고 화성으로 이주했다.”
“오답.”
“화성에 온 인류는 인공지능 로봇에게 전적으로 의존하고 있다.”
“오답.” -132쪽.
『바이센테니얼 맨』(아이작 아시모프, The Bicentennial Man, 1975, 좋은벗, 2000)은 가전제품이던 가사 로봇 앤드류가 조립 과정에서 오류가 발생하여 사람처럼 지능과 호기심을 갖게 되고, 200년 동안 존재하다가 스스로 존재를 중단하기를 선택함으로써 사람처럼 죽게 된다는 이야기이다. 불량품이던 앤드류 이후 실수나 오류로 감정을 갖게 되거나 생각을 할 수 있게 되는 단 하나 로봇 이야기는 복제처럼 읽힌다.
그런데 「거짓말 로봇」에서는 특정 로봇 한 개체가 아니라 여러 개체가 무작위로 광범위하게 사고력을 갖는 오류를 일으킬 정도로 인공지능이 발전했다는 상황이 다른 SF와 변별된다. 그리고 재건 지구의 로봇은 사람보다 네 배나 많고 그들 중에 90퍼센트는 인공지능을 탑재하고 있으므로, 로봇에게 탑재되는 인공지능의 알고리즘에서 몇 가지를 빼서 인지능력을 떨어뜨려야 한다는 설정으로, 거짓말 로봇을 만들어서 테스트해야 하는 당위성을 설득력 있게 제시하고 있다.
그래서 최종 출고 전에 인공지능 로봇을 테스트하기 위해 거짓말하는 인공지능을 탑재한 로봇을 만든다. 오류로 생각을 하게 되는 로봇들을 가려냄으로써 로봇 반란을 사전에 차단하려는 목적이다. 따라서 P-23호가 거짓말을 하게 된 방법은 분명하다. 로봇이 거짓말을 하도록 사람이 설계하였기 때문이다.
그렇지만 P-23호가 연구소 밖에 나가 본 적도 없는데, 연구소를 탈출해서 자유를 갖고 싶어 하는 상황은 조금 뜬금없다. 또 처음 목적대로 로봇을 대상으로 거짓말을 하다가 갑자기 P-23호 자신의 안위를 위해 사람에게 거짓말을 하게 되는 설정도 어색하다.
거기에다가 굳이 로봇 테스트용 P-23호를 “푸른색 멜빵바지에 하얀 셔츠 차림”인 십대 초반 로봇으로 만들 필요가 있는지도 의문이다. 인공지능이 아직 완벽하게 탑재되지 않은 로봇조차도 어린 사람에게 털어놓는 편이 나으리라는 생각은 사람 중심주의 시각이 아닐까?
「거짓말 로봇」에서 화성에 이주한 인류는 경비 로봇, 인솔 교사 로봇, 보수 로봇, 채굴 로봇, 바퀴 달린 로봇처럼 다양한 로봇들과 어우러져 살고 있다. 따라서 테스트용 로봇이라면 “네모난 몸통에 일할 때 필요한 팔들을 가진 가정용 인공지능 로봇”처럼 만들어도 충분할 텐데, 자본과 시간이 한정적인 화성에서 “인간과 징그러울 정도로 닮”도록 정교한 안드로이드로 제작하는 것은 비능률적으로 보인다.
그리고 로봇에게 ‘대기할 것’이 아니라 ‘휴식을 취할 것’이라고 명령하는 말은 로봇을 기계가 아니라 생명체로 인식하는 데서 비롯된 오류이다. 갑자기 연구소를 나가고 싶어 하는 상황처럼 로봇이 사고력을 갖게 되면 사람처럼 행동하리라는 예측은 사람들의 착각일 수 있다.
“P-23호는 방으로 이동해서 충전하고 휴식을 취할 것.” -150쪽.
이솝 우화 「사람과 사자가 함께 길을 가다」에서는 사람과 사자가 서로 잘났다고 자랑하면서 길을 가다가 사람이 사자를 목 졸라 죽이는 모습을 새긴 석상을 보게 된다. 그때 사람은 사람이 사자보다 더 강하다고 하지만, 사자는 웃으며 만약 사자가 조각을 할 줄 알았다면 많은 사람들이 사자의 발아래 쓰러져 있는 것을 볼 수 있었을 거라고 대답한다.
그런데 사자가 생존을 위해 사냥할 때가 아니라면 과연 사람에게 관심이나 있을까? 사람을 사자 발아래 두리라는 생각조차도 사람 중심주의 시각일 수 있다. 같은 맥락에서 겉모습이 사람과 닮았다고 로봇이 사람처럼 생각하고, 사람이 되고 싶으리라는 상상도 사람들의 선입견일 뿐이다.
그러나 몇몇 한계에도 불구하고 P-23호가 거짓말로 사람을 속여서 연구소를 탈출하고 만다는 설정은 사람이 충분히 통제한다고 하더라도 발생할 수 있는 인공지능의 위험성을 보여 준다는 점에서 돋보인다. 또 거짓말을 하는 인공지능이 탑재된 P 로봇들이 거짓말을 하면 눈 색깔이 빨갛게 바뀌도록 세팅하여 바로 알아차릴 수 있게 제작한다는 부분도 높이 살 만하다. 거짓말을 하면 코가 길어지는 19세기 나무인형 피노키오처럼 1단계로 가시적인 변화뿐 아니라, 2단계로 일정 주파수가 차단되면 정지하고, 3단계로 위치 추적 장치까지 겹겹이 안전장치를 마련한 것도 두드러진다. 이처럼 「거짓말 로봇」은 인공지능이 발전했을 때 발생할 만한 위험을 사전에 방지하기 위한 시뮬레이션을 제안하였다는 점에서 의의가 있다.
‘거짓말을 하는 로봇’이 등장하는 최초의 작품 중 하나인 「허비-마음을 읽는 거짓말쟁이」에서는 로봇이 거짓말을 하게 된 방법이 「거짓말 로봇」과 사뭇 다르다. 허비는 P-23호처럼 거짓말을 하도록 설계되지 않았다. 동종의 다른 로봇은 모두 정상이지만, 조립 과정에서 문제가 발생함으로써 ‘U. S. 로보틱스’에서 제작한 RB 34호, 허비는 사람 마음을 읽게 되었다.
로봇 심리학자 수잔 캘빈이 40년 전 일이라며 2021년에 있었던 일을 말하는 형식이므로, 시간적 배경은 2061년이다. 『바이센테니얼 맨』에 나온 앤드류처럼 실수로 생겨난 전무후무한 로봇 허비는 소설책을 “인간의 다양한 동기와 감정의 상호 작용에 대한 연구”라며 즐겨 읽는다. 허비가 소설에서 사람의 마음을 배운다는 설정은 눈여겨볼 만하다.
허비는 수학 천재이지만, 사람이 무슨 생각을 하는지 알아맞힐 수 있으므로, 수학자의 마음을 다치지 않게 하려고 수학자가 정리한 이론에서 오류를 못 찾는 척한다. 이처럼 허비는 사람에게 해를 입히지 않으려고 거짓말을 하게 된다.
“어떤 종류든 마음이 상하거나 인간 자아가 위축되거나 인간의 희망이 사라지는 것도 해라고 인식하므로, 마음을 읽는다면 마음의 상처도 모두 알고 누군가 질문을 던지면 그 사람이 듣고 싶어 하는 대답을 할 것” -185쪽.
이런 사실을 유추한 로봇 심리학자가 허비에게 해결할 수 없는 딜레마를 제시함으로써 허비는 “대답할 수도 안 할 수도 없는 딜레마”에 빠지는 바람에 무너져버려 작동이 멈춘 결과 “움직이지 않는 쇳덩어리”로 변했다. 따라서 허비는 아이작 아시모프(Isaac Asimov)가 제시한 로봇공학 3원칙 가운데 제1원칙 “로봇은 인간에게 해를 입혀서는 안 된다. 그리고 위험에 처한 인간을 모른 척해서도 안 된다.”를 철저하게 지키려고 거짓말을 할 수밖에 없었다.
살펴본 바에 따르면 「거짓말 로봇」에서는 로봇이 거짓말을 하도록 사람이 의도적으로 설계하였고, 「허비-마음을 읽는 거짓말쟁이」에서는 오류가 발생한 로봇이 로봇공학 3원칙을 지키려다가 거짓말을 하게 되었다는 차이가 있다. 그리고 「거짓말 로봇」에서는 사람이 거짓말을 하는 로봇을 폐기하고, 「허비-마음을 읽는 거짓말쟁이」에서 거짓말을 한 로봇은 프로그램 원칙에 따라 기능이 정지된다. 그러므로 두 작품에서 로봇이 거짓말을 하게 된 방법은 서로 다르지만, 사람에게 거짓말을 하는 로봇을 허용하지 않았다는 점은 같다.
그렇다면 사람에게 거짓말을 하고도 기능이 정지되지 않는 로봇이 나오는 작품이 있을까?
3. 로봇은 왜 거짓말을 할 수 있었을까?
- 『로봇의 별』과 『파운데이션을 향하여』
장편 『로봇의 별』과 『파운데이션을 향하여』(아이작 아시모프, Forward the Foundation, 1992, 김옥수 옮김, 황금가지, 2013)에는 로봇 원칙에 따라 거짓말을 하는 로봇이 나온다. 그러므로 거짓말을 해도 폐기되기는커녕 기능이 정지하지 않는다는 설정이 새롭다. 그렇다면 이 로봇들이 사람에게 거짓말을 할 수 있게 된 까닭은 무엇일까?
로봇이 따라야 할 세 가지 원칙은 1942년 아시모프의 「런어라운드(Runaround)」에서 처음 언급되었으며, 다음과 같다.
첫째, 로봇은 인간에게 해를 가하거나, 혹은 행동을 하지 않음으로써 인간에게 해를 끼치지 않는다.
둘째, 로봇은 첫 번째 원칙에 위배되지 않는 한 인간이 내리는 명령에 복종해야 한다.
셋째, 로봇은 첫 번째와 두 번째 원칙을 위배하지 않는 선에서 로봇 자신의 존재를 보호해야 한다.
『로봇의 별』에 나오는 로봇 아라와 네다는 공장에서 “여섯 살 난 아이의 지능과 감성으로 만들어졌다.”면서, “나로, 로봇, 2103년산, 모델 번호 NH-976, 제품 고유 번호 5970841”을 제시한다. 이처럼 사람과 로봇을 구별하는 듯하지만, 다음과 같은 서술은 「거짓말 로봇」에서 P-23호에게 휴식을 취하라고 명령하는 장면과 겹쳐지며, 독자가 사람과 로봇을 변별하기 어렵게 만든다. 로봇이 ‘고개를 축 늘어뜨리고 앉’을 필요가 있을까?
“인간과 똑같은 안드로이드 로봇들이 고개를 축 늘어뜨리고 앉아 있었다.” -25쪽.
다음에서 아라와 네다가 주고받는 말을 보면, 네다는 “로봇은 인간에게 해를 끼칠 수 없다.”는 로봇공학 1원칙을 따름으로써 사람에게 거짓말을 하게 된다. 이때 ‘도담’은 네다가 돌보는 아이 이름이다.
“너, 로봇의 3원칙 프로그램을 제거하지 않았잖아. 그런데 어떻게 인간에게 거짓말을 한 거야? 그러고 보니 그것도 이상해. 너, 아이들을 위해서 음식을 훔치기도 하잖아.” -435쪽.
“당연하잖아. 거짓말을 해야 약을 찾으러 떠날 수 있고, 그래야 도담을 구할 수 있으니까. 그리고 또 음식을 훔쳐야 도담이 먹을 수 있고, 도담은 먹어야 살 수 있으니까.” -436쪽.
그러자 아라는 네다의 말을 듣고 “우린 생각하는 로봇이니까, 잘 생각해 보면 간단한 일이었어.”라고 말한다. 로봇이 보호 대상자인 사람의 안전을 위해서 다른 사람에게 거짓말을 하는 것이 허용되는 상황이다. 네다 논리대로라면 도담이를 지키기 위해서 도담이를 해치려는 사람을 죽일 수도 있을까? 그리고 만약 사람을 죽이고 도담이를 지켜 낸다면 네다는 여전히 작동할까?
『파운데이션을 향하여』에서 작가는 네다보다 한 걸음 더 나아가, 인조인간 로봇이 사람을 죽일 수도 있다고 설정하였다. 금속과 전자장치로 만들어져서 사람보다 강인하고 빠른 인조인간 로봇인 도나 배스밸리는 심리역사학자인 해리 셀던의 보호자로 지정된 로봇이지만, 처음에는 해리 셀던에게조차 자신을 사람으로 속인다. 뿐만 아니라 해리 셀던과 파운데이션을 보호함으로써 인류를 지키고자 위해가 되는 사람을 죽이고 만다.
아시모프는 「피할 수 있는 갈등」(The Evitable Conflict, 1950, 『아이, 로봇』)에서 로봇공학 3원칙에 앞서는 ‘0원칙’ 아이디어를 처음 내세웠는데, “로봇은 인류에게 해를 입혀서는 안 된다. 그리고 위험에 처한 인류를 모른 척해서도 안 된다.”이다. 한 사람이 아니라 온 인류를 위해, 인류 멸종을 막기 위해 일한다는 뜻으로 읽힌다. 그러나 작가는 그조차도 완전하지 않다고 여겼는지, 도나 배스벨리가 많은 사람을 속일 때는 멀쩡했지만 한 사람을 죽이자마자 빠르게 기능이 멈추도록 하였다. 로봇과 공존을 꿈꾸던 아시모프조차도 로봇이 사람을 죽이는 것만큼은 허용하기 어려웠던 모양이다.
대한민국에서는 지난 2007년 정부 차원에서 세계 최초의 로봇 윤리 헌장 초안을 마련하였으나, 시기상조라는 의견들이 많아 공식적으로 채택되지는 못했다. 이때 살상용 군사 로봇을 실전에 투입할 경우 “로봇은 인간을 해쳐선 안된다”는 로봇 3원칙에 어긋나지만, 로봇 윤리 헌장 “3장 (인간 윤리) 인간은 로봇을 제조하고 사용할 때 항상 선한 방법으로 판단하고 결정해야 한다.”에 따르면, 인질 구출과 같이 선한 목적이라면 로봇이 사람(테러범)을 죽여도 로봇 윤리 헌장에는 전혀 위배되지 않는다. 그러므로 2007년 당시 로봇 윤리 헌장 초안이 채택된다면, 도담이를 지키려고 사람에게 거짓말을 한 네다가 정지하지 않는 결과는 당연하고, 해리 셀던과 파운데이션을 지키려고 사람을 죽이기까지 한 도나도 기능이 멈추지 않을 수 있다.
살펴본 바와 같이 『로봇의 별』과 『파운데이션을 향하여』에는 로봇공학 원칙에 따라 거짓말을 하는 로봇이 나온다. 그리고 사람에게 해를 끼치지 않는다는 원칙이 지켜질 때조차 로봇은 위협적일 수 있다고 작가들은 경고한다.
4. SF와 로봇 윤리
2018년 카이스트에서 방위산업체인 한화와 공동으로 인공지능 기반 자율 무기 시스템을 연구 개발한다고 발표하자, 세계적인 인공지능 학자들이 카이스트와의 협력을 전면 거부한다는 성명 발표로 이어지는 등 국제적인 논란을 불러일으킨 적이 있다. 그러므로 사회적 영향력이 큰 기술을 개발할 때 과학 기술자들이 먼저 과학 기술이 끼칠 사회적 영향에 대해 알고 이를 윤리적 차원에서 접근할 수 있어야겠다.
“과학자는 우리 사회와 국가만이 아닌 세계 전체에 기여”한다는데, 작가도 그렇다. 산꼭대기에서 구르는 눈덩이처럼 인공지능 기술이 빠른 속도로 발전하고 있지만, 「거짓말 로봇」과 「허비-마음을 읽는 거짓말쟁이」, 『로봇의 별』과 『파운데이션을 향하여』에서처럼 문학은 기술의 빈틈을 발견할 수 있다. SF에서는 인공지능 기술자 집단과 다른 시각으로 바라보는 인문학적 관점이 필요하다. 앞으로 로봇 불법개조를 손쉬운 장치로 설정하는 대신 올바른 로봇 윤리에 대해 다양하게 실험해 보는 작품의 출현을 기다린다.
플라스틱 사례에서 보듯이 꿈의 소재 티타늄, 꿈의 신소재 그래핀도 언제 어떤 부작용이 부메랑으로 돌아올지 지금은 알 수 없다. 목재보다 오래 버티고, 철보다 가볍고, 고무보다 단단하며, 열이나 압력을 가하면 아무 모양이나 만들어 낼 수 있을 뿐 아니라 싸기까지 한 플라스틱은 이제 인류 생명뿐 아니라 지구 생태계를 위협하고 있다. 새로운 기술은 늘 예상 불가능한 결과가 도출될 가능성이 있다는 사실을 염두에 두고 최악의 사태에 대비해야겠다. 인공지능도 마찬가지다.
『로봇의 별』에서처럼 보호 대상자인 사람을 지키느라 다른 사람에게 거짓말을 하고 다른 사람 물건을 훔칠 수 있는 네다 같은 로봇들이, 「거짓말 로봇」에서처럼 생활 전반에 걸쳐 범용화된 사회라면 어떤 결과를 초래하게 될까? 또 학습 데이터 의존도가 높은 인공지능이 편향적 데이터를 수집함으로써 편향적 결과를 낳는다면, 이를테면 한국에서 제작한 인공지능과 일본에서 제작한 인공지능이 독도에 대한 데이터를 수집하여 서로 다른 결과를 내놓는다면 어떤 문제가 발생할 수 있을까? 이처럼 각 나라마다 제작한 인공지능이 그 나라 국민의 정체성을 갖고, 인공지능끼리 다툼이나 전쟁이 일어났을 때 어떻게 처리해야 할까?
로봇 윤리는 결국 사람의 몫이다. 인공지능 자체보다 인공지능을 악용하는 사람이 더 위협적일 수 있으므로, 인공지능 기술과 인공지능 윤리가 어깨를 겯고 함께 나아가도록 모두 관심을 기울이고 지켜보아야겠다.
SF는 부정적인 미래를 미리 시뮬레이션하며 경고함으로써 현재를 돌아보게 한다. 문학은 인공지능 기술자들이 놓치는 부분들을 상상할 수 있다. 사람과 로봇의 관계를 규정한 로봇 윤리 헌장 제정에 참여한 차원용 아스팩 연구소장은 “로봇학자와 미래학자, 소설가 등 각계 전문가 20여 명이 머리를 맞대고 로봇 윤리 헌장 초안을 만들었다.”고 밝혔다. SF 작가들이 유익한 인공지능을 선한 의도로 활용하는 방법을 모색하는 작품을 쌓아가면, 우리가 로봇과 안전하고 평화롭게 공존하는 건강한 미래를 맞이하는 데 큰 역할을 할 것이다.
갈릴레오가 “자연의 책은 수학의 언어로 적혀 있다.”고 단언했듯이 수학은 우주의 언어라지만, 문학은 호모 사피엔스 전유물인 언어 예술이다. 문학은 힘이 세다.
-------
* 이 글은 2022년 한국문화예술위원회 문학비평활동지원을 받아 집필하였습니다.