AI 시대 자율 무기체계와 국제인도법 적용
인간 개입 없이 표적 선정해 공격
자율 무기체계 개념으로 논의 중
이스라엘 무인기 ‘하피’ 대표적
원격조정 무인 무기도 진화 예상
민간인·전투원 구별 어려운 시가전
통신 두절 상황 오면 사용 제한해야
사람 생명 결정 문제 AI 맡겨선 곤란
무기체계 사용자에 대한 교육도 중요
기술 발전에 따라 자율무기체계로 활용되는 무인기는 더욱 늘어날 것으로 보인다. 사진은 지난달 6일 부산 벡스코에서 열린 2024 드론쇼코리아에서 관람객들이 다양한 무인기를 관람하는 모습. 연합뉴스
제4차 산업혁명 시대를 살아가는 우리는 인공지능(Artificial Intelligence·AI) 없는 미래를 상상하기 어려울 것이다. AI를 활용해 인간은 과거보다 적은 노력으로 빠르고 효율적으로 업무를 수행할 수 있게 됐다. 반면에 사생활 침해, 허위 영상, 허위 정보 조작, 개인정보의 불법적 사용, 성별과 인종을 포함한 여러 분야에서 편향되고 차별적인 정보처리, 해킹 등의 문제가 예상된다.
이러한 AI가 군사 분야에 활용될 때 자율성이 고도화됨에 따라 인간 통제가 어려워지고 예상하지 못한 문제가 발생할 가능성이 높다. 특히 기술적 특이점을 넘는 인간보다 똑똑한 자율 무기체계가 등장하는 경우 인류의 존속 자체가 문제 될 수도 있다.
자율 무기체계라고 하면 영화 ‘터미네이터’의 인간보다 뛰어난 신체 능력과 지능을 보유한 기술적 특이점을 넘은 초인공지능(Artificial Super Intelligence)을 떠올릴 것이다. 하지만 현실적으로 군사 분야에서 활용될 AI는 이세돌 9단과 바둑 대결을 벌인 알파고와 같이 부분적으로 인간과 유사하거나 인간을 능가하는 능력을 보유하지만, 인간을 보조하는 수준에서 특정 문제를 해결하고 업무를 지원하는 약인공지능(Artificial Narrow Intelligence)이 될 것이다.
영화 ‘AI’에서 엄마의 사랑을 받고 싶어 인간이 되고자 했던 로봇 데이비드처럼 독립성, 자아, 자유의지 등이 추가된 강인공지능(Artificial General Intelligence)이나 터미네이터와 같은 초인공지능은 인간의 통제력이 미치기 어렵다. 이처럼 인간 통제가 어려운 형태의 자율 무기체계는 국제사회에서 그 사용을 금지하는 방향으로 논의가 진행되고 있다.
특정재래식무기금지협약(CCW) 기구의 정부 전문가그룹 회의(GGE)는 자율 무기체계 개념에 대해 합의를 보지 못하고 있지만, 대체로 ‘일단 작동된 이상 인간 운영자의 개입 없이 표적을 선정하고 공격할 수 있는 무기체계’를 자율 무기체계로 보고 있다. 현재 이륙 후 장기간 체공하다가 적의 레이다나 군사시설을 파괴하는 이스라엘의 무인기 하피(Harpy)가 대표적인 자율 무기체계로 언급된다.
러시아-우크라이나 전쟁에서 사용된 튀르키예 무인기(바이락타르)는 원격으로 조정되기 때문에 무인 무기이기는 하지만 자율 무기체계로 보기는 어렵다. 하지만 해군의 이지스 체계처럼 상황에 따라 원격조정에서 자율로 방식이 전환되는 경우 스스로 판단해 공격이 가능한 무기체계는 부분적으로 자율 무기체계다. 원격조정의 무인 무기체계는 필요에 따라 앞으로 자율 무기체계로 발전할 것이다.
더욱 문제가 되는 것은 최종적으로 교전의 결정을 인간이 하지만, 공격 결정에 시간적 여유가 없고 종합적 정보판단이 어려워 무기체계 정보를 인간이 신뢰할 수밖에 없는 상황이다. 형식적으로 인간 통제가 이뤄지고 있는 것 같이 보이지만 인간은 무기체계의 판단을 검토하기보다 단순히 승인하는 인간 거수기 역할을 하는 경우가 실제 전장에서 더욱 문제가 될 것이다.
AI가 활용된 자율 무기체계에 대해서도 기존의 국제인도법이 적용되는 것은 너무나도 당연하다. 2019년 CCW GGE 회의에서 당사국 합의로 도출된 11개 원칙의 핵심 내용도 자율 무기체계 사용에서 국제인도법이 적용돼야 하고, 무기사용 결정은 국제법에 따라야 하며, 자율 무기체계를 사용하는 국가는 국제법적 의무를 준수해야 한다는 것이었다.
국제인도법 기본원칙에 따르면 무력 충돌 상황에서 무력 사용은 군사적 필요가 있는 경우에만 허용되고(군사적 필요의 원칙), 원칙적으로 전투원과 민간인, 군사시설과 민간물자를 구별해 적 전투원과 군사시설에 대해서만 무력이 사용돼야 한다(구별의 원칙). 다만 부상으로 전투 능력을 상실한 군인, 종교 요원(군종)이나 의료 요원은 군인임에도 공격이 금지된다. 반대로 민간인이지만 직접적으로 적대행위에 참가하고 있는 사람은 예외적으로 무력 행사가 가능하다. 무력을 사용하더라도 군사적 이익을 초과해 과도하게 민간에 부수적 피해가 발생하는 공격은 금지되며(비례의 원칙), 민간인과 민간물자의 피해 방지를 위한 모든 예방적 조치를 의미하는 ‘사전 예방의 원칙’이 최근 자율 무기체계와 관련해 강조되고 있다.
민간인을 무차별적으로 살상하는 전투로봇 이야기를 그린 영화 ‘몬스터 오브 맨’ 스틸컷.
‘구별의 원칙’과 관련해 자율 무기체계는 위성, 영상, 음성, 생체정보 등을 활용해 단순한 전투원과 민간인의 구별을 인간보다 효과적으로 할 수 있다. 하지만 직접적인 적대행위의 참가나 전투 능력 상실과 관련된 법적 개념의 문제, 구체적 사실관계 확인이 어려운 경우 자율 무기체계가 국제인도법을 위반하지 않을지 논란이 되고 있다. 영화 ‘몬스터 오브 맨’에서와 같이 민간인을 무차별적으로 살상하는 전투 로봇의 사용은 반드시 금지돼야 한다.
특히 ‘비례의 원칙’에 있어 사람과 사람의 생명, 시설물 피해와 사람의 생명을 AI가 비교하기는 어려울 것이다. 더욱이 전쟁을 끝낼 수 있다면 오사마 빈 라덴 같은 지도자 한 명을 제거하기 위해 수십 명의 민간인을 희생시킬 것인지에 대한 추상적이고 복잡한 문제의 결정을 AI에게 맡기기는 더욱 쉽지 않다.
그렇다면 가능한 모든 상황을 고려한 프로그램의 사전 설계, 연구나 배치 전 자율 무기체계에 대한 법적 검토, 프로그램이나 알고리즘에 대한 철저한 시험평가, AI 무기체계 사용자에 대한 전문적인 교육과 전문성 향상 등을 통해 ‘사전 예방의 원칙’이 자율 무기체계에 철저하게 적용되어야 한다.
구별과 비례의 원칙 준수를 위해 자율 무기체계의 사용 지역, 사용 시간, 공격 대상, 자율 무기체계에 장착될 무기의 범위 등이 제한돼야 한다.
민간인이 없는 사막이나 수중에서의 자율 무기체계 사용은 당연히 고려될 수 있지만, 시가전과 같이 전투원과 민간인이 쉽게 구별되지 않는 곳에서 사용은 금지돼야 한다. 가용 시간도 지속적인 인간 통제가 허용되는 범위 내로 제한하고, 통제가 어려운 수중이나 통신 두절 시 무기사용은 제한해야 할 것이다. 장래 우리 군의 유무인 복합체계도 자율 무기체계에 해당할 여지가 있는 경우 국제인도법을 준수하도록 연구되고 개발돼야 한다.