"네 명의 선도적 과학자들이 인공지능기계의 위험성에 대한 사회적 우려를 논의하고, 그것을 줄이기 위한 방안을 제시한다."

【기고자】
스튜어트 러셀(UC 버클리 교수, 컴퓨터과학) 사빈 하우어트(영국 브리스톨 대학 교수, 로보틱스) 러스 올트먼(스탠퍼드 대학 교수, 생명공학, 유전학, 의학, 컴퓨터과학) 마누엘라 벨로소(카네기멜론 대학 교수, 컴퓨터과학) |
▶ 스튜어트 러셀: 전문가들이여, AI 무기에 대해 명백한 입장을 표명하라
인공지능(AI: artificial intelligence)과 로보틱스 분야는 중요한 윤리적 결정을 내려야 하는 기로에 서 있다: "치명적 자율무기시스템(LAWS: lethal autonomous weapons systems)의 개발을 지지할 것인가 아니면 반대할 것인가?"
과학기술의 발달로 말미암아, 인류는 (수십 년이 아니라) 수년 내에 (합법적인 것은 아니지만) 사실상 LAWS를 개발할 수 있는 위치에 도달해 있어, 위기의식이 고조되고 있다. LAWS는 화약과 핵무기에 이어 제3차 전쟁혁명(the third revolution in warfare)으로 불리고 있다.
LAWS는 인간의 개입 없이 표적을 선택하여 공격할 수 있어서, 만약에 그 표적에 인간이 포함되어 있는 경우 치명적 결과를 초래할 수 있다. 예컨대 무장한 쿼드콥터(quadcopters)는 시가전에서 적을 색출하여 제거할 수 있지만, 인간이 모든 결정을 내리는 크루즈 미사일이나 원격조종드론과는 구별된다.
기존의 AI와 로보틱스 요소들은 이미 물리적 플랫폼, 지각, 운동조절, 네비게이션, 지도작성, 전술적 의사결정, 장기계획 등을 제공할 수 있다. 따라서 이 요소들을 결합하기만 하면 곧바로 LAWS가 탄생할 수 있다. 예컨대, 무인자동차 기술을 딥마인드(DeepMind)의 DQN(Deep Q-network)이 학습한 인간유사전술제어(human-like tactical control)와 결합하면 도시에서 탐색 및 파괴 임무를 지원할 수 있는 것으로 증명된 바 있다.
미 국방성 산하 고등연구계획국(DARPA: Defense Advanced Research Projects Agency)이 추진하고 있는 2건의 프로젝트(FLA와 CODE)는 LAWS를 계획적으로 사용할 조짐을 보이고 있다. FLA(Fast Lightweight Autonomy) 프로젝트는 미세한 회전익기(rotorcraft)에 자율적 프로그램을 탑재하여, 도시지역과 건물 내부를 고속으로 날아다니며 스스로 작전을 수행하도록 하는 것을 목표로 하고 있다. CODE(Collaborative Operations in Denied Environment)의 목표는 자율성을 지닌 비행편대를 구성하여, 적의 신호차단으로 인해 인간 사령관과의 교신이 불가능한 상황에서 모든 단계의 타격임무(발견, 수리, 추적, 겨냥, 공격, 평가)를 수행하도록 하는 것이다. 다른 국가들도 이와 비슷한 목적으로 비밀 프로그램을 수행하고 있다.
전시(戰時)에 인간에 대한 공격원칙을 규정하고 있는 국제인도법(international humanitarian law)은 LAWS에 대해 특별히 규정하고 있지 않지만, LAWS에 적용하는 것은 가능하다. 1949년 체결된 제네바협정은 다음과 같은 3가지 기준을 만족하는 공격만을 허용하고 있다: ① 군사적 필요, ② 전투원과 비전투원 구별, ③ 군사적 목표의 가치와 쌍방손상의 가능성 균형(공격에 수반되는 인명손실과 재산 피해가 예상되는 구체적이고 직접적인 군사적 이익을 초과해서는 안 됨). 또한 1977년 헤이그협약에 추가된 마르텐스 조항(Martens Clause)은 인도주의 원칙과 공적양심의 명령에 위배되는 무기를 금지하고 있다. 그러나 이상의 국제법들에는 주관적 판단의 개입 여지가 많아, 현재의 AI 시스템에 적용하기가 불가능하거나 어렵다.
UN은 특정 재래식무기 금지협상(CCW: Convention on Certain Conventional Weapons)의 도움을 받아 스위스 제네바에서 일련의 모임을 주선해 왔는데, 향후 몇 년 내에 이러한 노력이 결실을 맺어 자율무기를 제한하거나 금지하는 국제조약이 성사될 것으로 기대된다. 1995년 실명을 초래하는 레이저무기(blinding laser weapons)에 대해 그랬던 것처럼 말이다. 만약 그러지 않을 경우, 현상유지라는 미명 하에 치열한 군비경쟁이 벌어질 것은 불을 보듯 뻔하다.
지난 4월 CCW 주최로 열린 3차 회의에서, 나는 AI 전문가 자격으로 증언을 하고 여러 나라들과 NGO들이 발표한 성명을 들었다. 많은 나라들이 이구동성으로 LAWS를 즉각적으로 금지하라고 촉구했다. 예컨대 독일 대표는 "우리는 자율무기가 독단적으로 인간의 생사를 결정한다는 사실을 받아들일 수 없다"고 말했다. 일본 대표는 "우리는 인간의 통제를 벗어나 살상능력을 보유하는 로봇을 만들 계획이 없다"고 말했다(go.nature.com/fwric1 참조).
이에 반해 LAWS 기술의 선두주자인 미국, 영국, 이스라엘의 대표들은 "우리는 이미 국제적인 무기심사절차를 통해 국제법 준수 여부를 확인받고 있으므로, 별도의 협약은 불필요하다"고 주장했다.
CCW에 참가한 나라들은 대부분 '로봇무기가 표적 및 공격을 결정하는 데 있어서 의미있는 인간적 통제(meaningful human control)가 필요하다'는 원칙에 공감하고 있다. 그러나 불행하게도, '의미있다'는 것이 무엇을 의미하는지가 아직 불투명하다.
LAWS를 둘러싼 논쟁에는 다양한 측면이 존재한다. 어떤 이들은 "자율무기는 효율과 선택성이 워낙 뛰어나므로, 전투원만을 겨냥함으로써 민간인 사상자를 최소화할 수 있다"고 주장한다. 또 어떤 이들은 "LAWS는 즉각적 위험을 초래하지 않는 적을 공연히 공격함으로써, 전쟁으로 가는 문턱을 낮출 것이다"라거나, "테러리스트와 게릴라들을 부추겨, 민간인들에게 엄청난 피해를 입힐 수 있다"고 주장하기도 한다.
LAWS는 기계로 하여금 살상대상을 결정하게 함으로써, 인간 존엄성의 기본원칙을 위반할 수 있다. 예컨대 LAWS에는 '위협행동(threatening behaviour)을 하는 사람들을 모두 제거하라'는 명령이 입력되어 있을 수 있다. 한편 인권단체와 드론 제작자들은 'LAWS 기술이 평화시의 경찰기능에까지 손을 뻗을 수 있다'는 가능성에 동의하고 있다.
내가 가장 우려하는 것은 LAWS 기술의 종착점이다. 자율무기의 능력을 제한하는 요인에는 여러 가지가 있겠지만, 종국에는 주로 물리법칙(예컨대, 크기, 속도, 적재량 등)이 LAWS를 제한하게 될 것이다. 예를 들면, 비행로봇이 점점 더 소형화될수록 그들의 작전수행능력은 증가하고, 적에게 발각될 가능성은 점점 더 감소할 것이다. 그러나 소형화에도 한계는 있다. 인간의 두개골에 구멍을 뚫어 치명상을 입히려면 적어도 1그램 정도의 폭약은 탑재해야 하니까 말이다. 하지만 이러한 물리학적 한계에도 불구하고 우리는 수백만 가지의 플랫폼을 예상할 수 있으며, 자율무기의 민첩성과 치명성은 인간을 완전한 무방비상태로 만들 것이다. 이건 결코 바람직한 미래라고 할 수 없다.
AI와 로보틱스 분야의 전문가들은 LAWS에 대해 분명한 입장을 표명해야 한다. 물리학자들이 핵무기에 대해, 화학자들이 화학무기에 대해, 생물학자들이 생물무기에 대해 입장을 표명했던 것처럼 말이다. 입장을 표명하는 방법에는 여러 가지가 있다. 학술회의나 윤리위원회에 참석할 수도 있고, 저널에 논문이나 사설을 기고할 수도 있고, 학회에 참석하여 의결권을 행사할 수도 있다. 아무런 입장을 표명하지 않는 것은 LAWS의 무제한적 개발과 배치에 찬성표를 던지는 것이나 진배없다.
【참고 1】 타라니스 드론(Taranis drone)
영국의 BAE 시스템이 개발한 타라니스 드론은 자율요소를 보유하고 있지만, 전투와 관련된 의사결정만큼은 인간에게 의존한다.

|
▶ 사빈 하우어트: 대중 의사소통을 강화하자
로보틱스와 AI에 대한 과도한 공포 또는 기대를 부추기는 기사들이 연일 신문의 헤드라인을 장식하자, 일부 전문가들은 이에 부담을 느낀 나머지 미디어나 대중과의 의사소통을 아예 중단해 버렸다.
그러나 우리는 대중과의 의사소통을 절대로 포기해서는 안 된다. 대중의 범위에는 납세자, 정책입안자, 투자자, 그리고 로보틱스 및 AI 기술의 수혜자 등이 포함되는데, 그들은 대부분 일방적인 의견에 귀를 기울이다 보니 입장을 정하지 못하고 갈팡질팡하는 경우가 많다. "혹시 로봇이 내 일자리를 빼앗는 건 아닐까?" "AI가 인류의 생존에 위협을 가하는 건 아닐까?" "아직 실험적 기술에 불과한 것을 굳이 법을 제정해 가면서까지 통제할 필요가 있을까?"
사정이 이렇다 보니, 나와 내 동료들은 일부러 식사 자리를 마련하여, "우리는 결코 '악당'이 아니며, 노인들을 돕고, 보건의료를 향상시키고, 작업의 안전성과 효율성을 제고하고, 우주 및 해저 탐사를 돕기 위해 노력하고 있다"고 해명하고 있는 실정이다.
무릇 전문가라면 자신이 종사하는 분야의 분야의 메신저 역할을 자임해야 한다. 과학자들은 소셜미디어를 통해, 대중들이 균형잡힌 시각을 가질 수 있도록 도와줘야 한다. 로보틱스와 AI 분야가 최근에 이룬 성과와 한계를 설명하고, 커다란 밑그림을 제시하는 한편, 근거 없는 신화를 벗겨내는 작업을 병행해야 한다. 나는 소셜미디어를 이용하여 나노봇(nanobot) 군단이 암을 치료하는 과정을 소개했다. 그리고 내 지도를 받는 박사과정 학생 한 명은 나노의학에 관한 블로그를 개설했다.
AI와 로보틱스 분야는 스티븐 호킹이나 엘론 머스크(기업가, 발명가)와 같은 간판스타들을 내세워 대중과의 의사소통을 강화하고, 다보스 경제포럼과 같은 국제회의에 참석하여 어젠다를 제시해야 한다. 대중과의 의사소통에는 크라우드펀딩도 포함된다. 예컨대 MIT의 신시아 브라질이 개발한 가정용 인공지능 로봇 지보(JIBO)는 클라우드펀딩을 통해 220만 달러를 조달했다.
물론 대중과의 의사소통에는 몇 가지 장애물이 존재한다. 첫째, 상당수의 과학자들은 아직 트위터, 페이스북 등의 소셜미디어를 사용하거나 블로그를 개설해 본 경험이 없으며, 유튜브에 동영상을 업로드할 줄도 모르는 실정이다. 둘째, 시간이 부족하다 보니 대외활동은 딴 나라 이야기다. 셋째, 소셜미디어를 통해 영향력을 확보하려면 몇 년의 시간이 필요하다. 넷째, 대중과의 의사소통은 연구실적에 포함되지 않는다.
장애물이 많다고 해서 수수방관할 수는 없다. 이를 헤쳐 나가기 위해 훈련과 지원과 인센티브를 강화해야 한다. 내가 공동으로 설립하여 대표를 맡고 있는 로보허브(Robohub.org)에서는 이 세 가지를 모두 제공한다. 2012년 설립된 로보허브는 로보틱스를 일반 대중들과 연결하는 데 전념하고 있다. 우리는 주요 AI/로보틱스 컨퍼런스에 과학커뮤니케이션 강좌를 개설하여, 과학자들에게 소셜미디어 활용요령을 강의한다. 또한 과학커뮤니케이션 전문가와 저널리스트들을 초청하여, 연구결과를 대중들에게 쉽게 전달하는 방법을 조언해 준다. 과학커뮤니케이션 전문가들은 메시지를 간단명료하게 전달하고 함정에 빠지지 않는 방법을 설명하지만, 이야기를 주도하고 결론을 내리는 것은 어디까지나 과학자들의 몫이다. 또한 우리는 과학자들을 비디오카메라 앞에 세우고, 컨퍼런스에서 발표한 연구결과를 5분 이내에 설명해 달라고 요청한다. 이 모든 것들은 유튜브에 업로드된다. 마지막으로, 우리는 포털사이트를 통해 블로그와 페이스북과 트위터의 내용을 전파함으로써, 수만 명의 팔로워들에게 가까이 다가간다.
대중과의 커뮤니케이션을 강화하면 많은 이점이 있지만, 궁극적인 인센티브는 연구비 지원이 되어야 한다. 피인용 횟수가 연구비지원과 학문적 성취의 유일한 잣대가 될 수는 없다. 우리는 블로그의 조회수와, 소셜미디어의 공유, 댓글, 좋아요 등도 중시해야 한다. MIT의 로보틱스 연구자인 로드니 브룩은 1986년 생물학으로부터 영감을 받아 포섭구조(subsumption architecture)에 관한 논문을 발표했는데, 이것은 로봇을 환경에 반응하도록 프로그래밍하는 방법을 제시한 고전적 논문으로 손꼽힌다. 이 논문은 지난 30년 동안 약 10,000번의 피인용 횟수를 기록했다(R. Brooks IEEE J. Robot. Automat. 2, 14–23; 1986). 그런데 브룩스가 운영하는 리싱크로보틱스(Rethink Robotics)가 개발한 소여(Sawyer)에 대한 비디오는 한 달 만에 60,000번 이상의 조회수를 기록했다(go.nature.com/jqwfmz). 이 두 가지(논문과 비디오) 중 로보틱스의 보급에 더 많이 기여한 것은 어느 것이라고 생각하는가?
정부, 연구기관, 사업개발자, 연구협회 및 산업단체들은 과학자들의 대중 커뮤니케이션 강화노력을 환영하며 재정지원을 제공하고 있다. 그러나 개별기관들의 전략이 고립·분산되어 있다 보니 파급효과가 제한적이다. 내 생각에는, AI와 로보틱스에 이해관계를 가진 전세계의 관계자들이 십시일반(예를 들면 예산의 0.1%쯤)으로 기금을 모아, 기존의 분산된 활동을 통합함으로써 AI 및 로보틱스 분야의 과학자들이 좀 더 적극적으로 의견을 개진할 수 있는 장(場)을 마련해 줬으면 좋겠다. 대기업의 이익을 대변하는 일부 이익단체, 예컨대 소규모무인비행체연합(Small Unmanned Aerial Vehicles Coalition: 미국 시장에서 상업용 드론의 판매를 촉진하기 위해 결성된 사업자 단체)은 자신들의 이익을 도모하기 위해 관계당국에 적극적으로 로비를 벌이고 있다. 그러나 AI와 로보틱스 분야에는 이처럼 일치단결된 활동의 사례를 거의 찾아볼 수 없어, 분발이 시급히 요망된다.
분산된 의사소통 노력을 통합하는 전략은 로보틱스 분야에 새바람을 일으켜, 대중과의 긴밀한 소통을 중시하고 자신의 입장을 당당히 밝히는 차세대 로보틱스 과학자들을 탄생시킬 것이다. 미디어의 과장보도에 역공을 가하고, 로보틱스에 대한 광범위한 오해가 대중의 인식, 정책, 연구비지원 결정 등에 잘못된 영향을 미치지 못하게 하려면, 이 같은 노력이 절실히 필요하다.
【참고 2】 로보노트 2(Robonaut 2)
미 항공우주국(NASA)의 로보노트2는 우주정거장 건설은 물론, 의학과 산업용으로도 사용될 수 있다. 
|
▶ 러스 올트먼: AI로 인한 이익을 공평하게 분배하자
AI는 생물학과 의학 분야에서 과학적 발견을 가속화시키고, 보건의료의 대변혁을 초래할 놀라운 잠재력을 갖고 있다. 소위 오믹스(omics) 분야(유전체학, 단백질체학, 대사체학 등), 전자진료기록, 디지털 센서를 이용한 실시간 건강정보 모니터링 등에서 나오는 새로운 형태의 데이터를 해석하고 활용하는 데 있어서 AI는 발군의 실력을 발휘할 것으로 예상된다.
군집분석(clustering analysis)은 새로운 증후군을 정의하여, 과거에 동일한 질병으로 분류됐던 것을 분리하거나, 반대로 동일한 결함을 갖고 있는 질병들을 하나로 통합할 수도 있다. 패턴인식기술(pattern-recognition technologies)은 특정 질병상태를 적정한 치료법과 연결시킬 수 있다. 예컨대, 나와 스탠퍼드 대학교의 동료들은 임상 및 전사체학적(transcriptomic) 특징에 근거하여, 면역계 조절약물에 반응하는 환자군을 찾아내고 있다.
임상의들은 컴퓨터 화면에 나오는 가상코호트(virtual cohort)의 데이터를 이용하여 진단 및 치료법의 효과를 가늠하고 통계분석까지 할 수 있다. 또한 의사들은 이러한 시스템을 이용하여 의학적 결정을 내리거나, 환자 및 가상코호트의 데이터를 기반으로 시뮬레이션을 통해 치료결과를 예측할 수도 있다.
그렇다고 해서 AI 기술이 우리 모두에게 장밋빛 미래를 보장하는 것은 아니다. 내가 우려하는 것은 크게 두 가지다.
첫째, AI의 혜택을 모든 환자들이 향유할 수 있도록 배려하지 않을 경우, AI는 기존의 보건의료 불평등(health-care disparities)을 심화시키는 것은 물론, 새로운 불평등을 만들어낼 수 있다. 예컨대 미국의 경우, 실직자들은 적절한 수준의 보건의료 혜택을 받지 못하고 있다. 특별한 그룹(또는 지불능력이 있는 소수)만이 선진화된 의사결정시스템의 혜택을 누릴 수 있는 이중구조(二重構造)는 불공평하고 부당하다. AI 기술의 혜택이 골고루 배분될 수 있도록 보장하는 것은 정부, 개발자, 지원자 모두의 공동책임이다.
둘째, 의사들이 고성능 AI 시스템의 결과물을 이해하고 설명할 수 있는 능력을 갖고 있는지 의문이다. 특정 결과물이 도출된 과정과 이유를 명확히 이해하지 못한다면, 대부분의 의사들은 AI를 이용한 의사결정 지원시스템이 제안하는 복잡한 치료권고를 받아들일 수 없을 것이다. 불행하게도, AI 시스템이 정교화될수록 그것을 설명하기는 더욱 더 어려워진다. 확률기반 평가 과정을 이해하기는 비교적 쉽지만, 딥러닝 네트워크는 그렇지 않다. AI 시스템의 인프라와 기술역량을 구축하는 연구자들은 의사, 간호사, 환자 등과 자리를 마련하여, AI의 기본적인 작동원리와 적절한 사용방법을 이해시킬 필요가 있다.
▶ 마누엘라 벨로소: 로봇과 인간이 공존하는 세상을 만들자
인간은 지각, 인식, 행동을 매끄럽게 통합시킨다. 자신이 보유한 센서를 이용하여 세상의 상태를 평가하고, 뇌를 이용하여 목표달성을 위한 행동을 생각하고 선택한 다음, 신체를 이용하여 그 행동을 실행하는 것이다. 내가 이끄는 연구팀은 이와 동일한 과제를 수행할 있는 로봇을 만들기 위해 노력하고 있다. 이 로봇은 인공센서(마이크, 카메라, 스캐너), 메커니즘을 제어하는 알고리즘과 작동장치 등을 갖추고 있다.
그러나 자율로봇과 인간의 능력은 매우 다르다. 로봇의 지각, 인식, 작동 능력에는 늘 제한이 따른다. 로봇은 하나의 장면을 완벽하게 지각하지 못하고, 모든 사물을 인식하거나 조작할 수 있는 것도 아니고, 모든 구어체·문어제 문장을 이해하지도 못하고, 모든 장소에서 길을 찾을 수 있는 것도 아니다. '로봇이 인간을 보조할 수는 있지만, 대체할 수는 없다'는 것이 내 생각이다. 그러므로 인간이 로봇에게 가르쳐야 할 것이 두 가지 있다. 하나는 '인간에게 도움을 요청할 때가 언제인가'이고, 또 하나는 '자신의 내부상태(inner workings)를 어떤 식으로 표현할 것인가'이다.
로봇과 인간이 공존하는 방법을 좀 더 연구하기 위해, 우리는 지난 3년간 4명의 협동로봇(CoBots)과 연구실 및 건물을 함께 사용해 왔다. 이 코봇들은 우리가 자체 개발한 것으로, 교탁 비슷한 모양을 하고 있다. 모든 방향으로 진행 수 있는 바퀴를 갖고 있어서 장애물을 부드럽게 피해갈 수 있고, 카메라와 레이더를 갖고 있어서 사물을 세밀히 관찰할 수 있고, 컴퓨터를 갖고 있어서 자료를 처리할 수 있고, 스크린을 갖고 있어서 의사소통을 할 수 있으며, 바구니를 갖고 있어서 물건을 운반할 수도 있다.
그러나 우리는 일찌감치 깨달았다, 인간세계에서 생활하는 것이 로봇에게는 얼마나 힘든 일인지를. 코봇은 현실에서 맞닥뜨리는 사물들을 모두 인식할 수 없었고, 손이나 팔이 없다 보니 문을 열거나 물건을 집어들고 조작하는 데 애를 먹었다. 언어를 이용하여 말을 할 수는 있었지만, 인간의 구어체 대답을 인식하거나 이해하지 못했다.
우리는 공생적 자율성(symbiotic autonomy)의 개념을 도입하여, 필요시 인간 또는 인터넷에게 도움을 요청하는 방법을 로봇에게 알려줬다. 그랬더니 우리 건물 안에서 생활하는 로봇과 인간은 상부상조를 통해 각자의 한계를 극복하며 잘 공존하고 있다.
코봇은 방문객을 안내하여 건물 내부를 돌아보게 하고, 이곳저곳으로 물건을 운반하며, 이동 과정에서 수집한 유용한 정보들을 우리에게 제공한다. 예컨대, 그들은 정확한 공간지도를 작성할 수 있으며, 온도, 습도, 소음, 조도, 와이파이 신호강도 등의 정보를 알려준다. 우리는 코봇을 도와 문을 열어주고, 엘리베이터 버튼을 눌러주고, 물건을 들어주고, 원활한 의사소통을 위해 단어사용에 신중을 기한다.
로봇과 인간이 안전하고 생산적으로 공존하려면 아직도 멀었다. 내가 이끄는 연구팀은 언어와 몸짓을 통해 인간과 로봇이 좀 더 쉽게 의사소통하는 방법을 연구하고 있다. 또한 인간과 로봇이 갖고 있는 사물, 과제, 목표에 대한 표상(representation)을 일치시키는 방법도 모색하고 있다.
또한 우리는 굳이 대화를 하지 않더라도 로봇의 표정(appearance)을 이용하여 인간과의 상호작용을 향상시키는 방법도 연구하고 있다. 예컨대 표시등(indicator lights)을 이용하면 로봇의 내적 상태를 인간에게 알려줄 수 있다. 만약 로봇이 바쁘다면 표시등이 황색으로 바뀌고, 한가하다면 녹색으로 바뀌는 식이다.
비록 아직 갈 길은 멀지만, 인간과 로봇이 서로 돕고 보완하는 방법을 모색한다면, 양자의 안전하고 생산적인 공존은 충분히 가능하다고 생각한다.
【참고 3】 키로보(Kirobo, キロボ)
일본이 개발한 최초의 로봇 우주비행사 키로보는 2013년 국제우주비행장에 배치되었다.

|
※ 출처: Nature 521, 415–418 (28 May 2015) doi:10.1038/521415a (http://www.nature.com/news/robotics-ethics-of-artificial-intelligence-1.17611) ※ 참고: 김대식, 『김대식의 빅퀘스천』, 동아시아, pp. 284-318.
|