|
|
1. 공학윤리란 무엇인가?
공학윤리(Engineering Ethics)는 공학에서의 윤리를 일컫는 말이다. 즉, 공학윤리(工學倫理)는 공학자로서 지켜야할 윤리를 말한다.
과거 두 차례의 세계대전을 겪으며 만들어진 대량살상무기와 산업혁명 이후 기업 경영주의 경제적 이익이 모든 판단의 우선순위를 차지함에 따라 발생한 도덕적 위험이 급격히 증가하여 이른바 광기의 시대를 청산하기 위해서는 엔지니어의 양심이 중요하게 부각된다.
이에 엔지니어 스스로 도덕적 위험을 판단하고, 이에 수반되는 결정을 내릴 수 있도록 자체적인 연구로 이 학문이 탄생한다. 대규모 인명-재산-환경피해를 야기할 수 있는 기업범죄, 전쟁범죄 같은 상황이 예상되거나 그것이 확실한 지시를 받는다면, 양심에 입각해서 최대한 고용주, 상급자를 설득하고 그래도 안 되면 문제의 지시를 거부할 수 있는 엔지니어를 양성함이 이 학문이 존재하는 가장 큰 이유이다.
인간은 행복과 도덕적인 선을 추구한다. 그리기위해서는 무엇보다 윤리적 행위가 필요하다. 윤리적인 행위는 윤리적으로 올바른 행위이며 윤리(학)는 윤리적으로 올바른 행위의 이유를 말하거나 정당화하는데 관심을 가진다. 윤리(학)는 세 가지 의미로 이해할 수 있고 과학기술자를 위한 공학윤리도 그렇게 이해할 수 있다.
•첫째, 윤리학은 연구 영역을 가리킨다. 윤리적인 가치를 이해하고 윤리적인 쟁점을 해결하며 윤리적인 판단을 정당화하는 활동이다. 또한 이런 활동을 연구하는 분과이다. 이런 윤리적인 가치, 쟁점, 판단은 인간의 행위가 중심이 되는 다양한 영역에서 중요하다. 공학 등 과학기술의 영역에서 인간의 활동이 윤리적 가치, 쟁점, 판단의 대상이 되는 것은 분명하다. 이 영역에서 윤리(학)를 다음과 같이 정의할 수 있다. 과학기술의 활동에서 비롯된 사건이나 사실의 윤리적인 가치를 이해하고 도덕적 쟁점을 해소하며 윤리적인 판단을 정당화하는 것이다. 또한 그런 도덕적 가치, 쟁점, 결정을 연구하는 분야이다.
•둘째, 윤리는 단체나 개인들이 승인한 도덕성에 관한 믿음이나 태도이다. 미국의 경우에 과학기술자들이 준수해야 할 다양한 공학윤리 강령들이 있다. 이들 윤리 강령은 도덕성에 관한 믿음이나 태도의 사례이다.
•셋째, 윤리는 "도덕적으로 옳다." 또는 "도덕적으로 정당화되었다."는 개념과 동의어이다. 이들 개념에 따르면 공학 분야를 위한 윤리는 의무, 권리에 관련된 정당화된 윤리 원리들의 집합이다. 이들 윤리 원리가 과학기술의 영역에 적용될 때 이 영역에 참여한 사람들에 의해 그 원리들은 승인되어야 한다. 이들 원리를 해명하고 그것들을 구체적 상황에 적용하는 것이 공학윤리의 중심 목표이다.
2. 공학윤리의 필요성
공학윤리는 공학영역에서 생기는 윤리적 문제들을 해결하는 기준은 어떤 것이어야 하고, 특별한 상황에 그 기준을 어떻게 적용하는가 하는 질문과 관계된다. 공학윤리를 연구하는 목적 중의 하나는 윤리적 논의가 책임 있는 공학적 실천을 촉진하는 것을 도울 수 있다는 것이다. 책임 있는 공학적 실천은 예방윤리의 실천이라고 할 수 있다. 예방윤리는 나중에 더 심각한 문제를 피하기 위해 건전한 윤리적 의사결정을 실천하는 것이다.
윤리학의 영역으로 분류하면 공학윤리는 도덕적 문제해결 훈련을 위한 응용윤리의 한 분과이다. 공학인들은 직업상의 문제에 있어서 해결 당사자들이지만 보통 윤리적 문제를 해결하는 법은 훈련받지 못하고 있다. 우리사회에서도 수차례의 교육과정의 개편과 함께 전인교육을 지향해왔지만 현실에 있어서는 기능교육에 치우치고 있다.
이런 측면에서 공학인들도 고등교육을 받아 과학적 지식을 직업에 응용하는 일에는 뛰어나며 사회발전의 원동력이 되는 역할을 해내고 있지만, 기능에 치우치게 되는 자격증 맹신의 경쟁 속에서 도덕적 판단력을 향상시킬 수 있는 교육은 제대로 받지 못해왔다. 이제서야 공학인증제의 실시로 인해 일부 대학에서 공학윤리교과를 개설하고 있는 실정이다.
늦은 감은 있지만 공학인들이 도덕적 문제들에 대해 지적으로 접근할 수 있도록 기회를 제공하고 도덕적 판단력을 길러 문제해결방향을 제대로 찾도록 도움이 되어야 할 것이다. 따라서 공학도라면 누구나 공학윤리의 의미를 파악하고, 공학직이 전문직이며 전문직의 윤리가 요구된다는 점을 인지하여야 한다. 또한 전문직의 윤리도 일반 윤리학의 연구성과를 토대로 직업영역에 응용한 것이기에 공학윤리문제를 이해하기 위해서 공리주의, 의무론, 권리론, 덕윤리 등 윤리학에 대한 기본 교육이 필요하다. 이러한 윤리학에 대한 기본 이해를 통해 실제 현장에서 공학윤리문제가 생겼을 때 윤리문제를 어떻게 적용하고 자신이 판단해야 하는지를 결정할 수 있게 된다. 이때의 윤리적 판단은 단순히 윤리적 행위에 끝나는 것이 아닌 법적인 처벌 대상이 될 수 있기 때문이다.
예를 들면, 다음과 같은 글은 공학윤리의 중요성을 강조한 내용이다.
“건축업자가 집을 지었는데 그 집이 무너져 집주인이 죽음을 당하면 그 건축업자는 사형에 처한다.
그 집의 아들이 죽었으면 그 건축업자의 아들을 죽인다.
그 집의 노예가 죽었으면 건축업자가 노예로써 갚아야 한다.”
‘눈에는 눈, 이에는 이’ 원칙으로 잘 알려진 <함무라비 법전>에 나오는 내용이다.
다소 야만적으로 보일 수도 있으나, 이미 3,700여 년 전에 날림공사에 대한 엄정한 경고를 했다는 사실이 흥미롭다.
공과대 재학시절, ‘공학윤리(Engineering Ethics)’에 대해 배울 기회가 있었다.
공학윤리는 말 그대로 엔지니어가 준수해야 할 직업윤리이다.
각 분야마다 기본적으로 지켜야 할 직업윤리가 있지만, 공공의 안전과 밀접하게 관련된 공학인의 윤리는 사람의 생명을 다루는 의료인의 윤리 이상으로 중요하다.
의대생들은 졸업식에서 히포크라테스 선서를 통해 양심적인 의료인으로 살아갈 것을 서약한다. 무엇보다 환자의 건강과 생명을 먼저 생각해야 하는 게 의사의 윤리의식이다. 의사의 실수로 의료사고가 발생하면 한명의 환자가 죽을 수 있다.
반면 엔지니어의 실수나 비윤리적 행동은 그 이상의 대형 참사로 이어질 수 있다.
보다 편리한 세상을 만들어가는 엔지니어링 분야는 특히 공공의 안전과 관련된 일이 많기 때문이다. 엔지니어가 반드시 지켜야 할 공학윤리를 망각할 때 어떤 결과를 초래할 수 있는지 보여주는 사례는 너무도 많다.
최악의 원자력 사고로 기억되는 체르노빌 원전사고나 우주왕복선 챌린저호 폭발사고, 콩코드 여객기 추락사고 등은 모두 막을 수 있었던 인재(人災)였다.
한국의 성수대교와 삼풍백화점 붕괴사고 역시 부실설계와 부실시공, 부실관리로 인한 대표적 참사이다.
장기적 안전보다 당장의 이익을 우선시하는 비윤리적 행동이 얼마나 큰 참사로 이어질 수 있는지 우리는 이미 수많은 사례를 통해 배워왔다.
지난주 경기도 화성의 한 신축 공사장에서 옹벽이 무너져, 작업하던 근로자들 중 3명의 사상자가 발생했다.
허가 당시 1m 높이로 설계된 낮은 옹벽을 4m 높이까지 쌓아 올렸다고 한다.
설계변경에 대한 허가가 나지 않은 상태에서 시공을 했다고 하니 명백한 불법시공이다.
그렇게 쌓아 올린 콘크리트 블럭 옹벽은 완공된 지 단 하루 만에 무너져 버렸다.
옹벽(Retaining wall)은 경사진 곳을 깎거나
흙을 쌓을 때 생기는 비탈면을 보호하기 위해 만드는 지반구조물이다.
일반적으로 콘크리트 블럭 옹벽은 경사면을 만들어 쌓고,
필요한 경우 안전율을 높이기 위해 보강제를 사용한다.
사고가 난 화성 현장은 보강제는커녕, 옹벽 또한 수직으로 쌓았다고 한다.
부지를 넓히기 위해 옹벽을 가파르게 축조한 것으로 보인다.
이런 상태로 당초 허가된 높이의 4배를 쌓았으니,
높은 토압을 버티지 못한 옹벽이 무너져 버린 것이다.
최근 들어 한국에서 공사장 주변 붕괴사고가 잇따르고 있다.
가산동 오피스텔 흙막이 붕괴와 상도동 유치원 붕괴사고에 이어
연속 3주째 지반 붕괴사고가 발생했다.
연이은 사고 소식을 접하며 특히 안타까운 점은
이번에도 역시나 자연재해가 아닌 인재라는 사실이다.
붕괴에 취약한 지반을 제대로 보강하지 않고 공사를 강행하면 지반은 언제라도 붕괴될 수 있다. 여기에 비까지 내린다면 지반은 더욱 약해지므로, 엔지니어는 설계 및 시공 시 항상 안전율 확보를 위해 노력한다. 충분한 안전율만큼이나 중요한 것이 엔지니어 공학윤리이다.
한국의 건설기술력은 이미 전 세계적으로 인정받은 수준이다.
잇단 사고의 원인은 기술력 부족에 있지 않다.
눈앞의 이익을 우선시하는 업계의 오랜 관행과 엔지니어의 비양심적 행동, 그리고 행정기관의 안일한 대처 등 총체적으로 잘못된 사회 시스템이 문제이다.
큰 틀에서 볼 때, 엔지니어의 공학윤리가 철저하게 지켜졌다면 발생되지 않았을 사고들이다.
끊임없이 반복되는 공사장 붕괴사고, 언제까지 ‘눈 가리고 아웅’ 식으로 대처할 것인가.
보다 근본적인 대책을 마련해야 한다.
한국사회에서 찾아보기 힘들어진 엔지니어 공학윤리,
다시 한 번 심각하게 고민해 볼 때다.
<이진태, 지반공학박사 워싱턴주 환경부 엔지니어> (미주 한국일보 2018-09-20)
3. 4차산업 시대와 공학윤리
4차산업 시대를 맞이하여 이제 우리가 현실적으로 걱정해야 할 부분은 로봇이 인간에게 가할 위해가 아니라 인간이 로봇에게 가할 위협일 것이다.
“지금 로봇은 단지 하나의 제품에 불과하다.
그런데 로봇이 점점 진화하여 감정을 느끼게 된다면?
결국 인간의 두뇌도 아주 정교한 기계가 아니던가?
기계에 의식이란 게 생긴다면 우리는 로봇의 감정을 고려해야 할 것인가?
지금까지 인류가 의식을 지닌 유일한 대상인 동물들과 맺어온 관계의 역사를 고려할 때 로봇을 도덕적 차원에서 바라봐야 할 대상으로 인정할 것 같지는 않다.”
- 피터 싱어(Peter Singer)의 <더 나은 세상> 중에서.
<자율주행차 로드킬 시나리오>
“화재가 발생했을 때, 같은 공간에 있는 할머니와 아이 중에서 한 명만 구해야 한다면, 누구를 먼저 구하겠는가?” 기자가 인공지능 로봇인 ‘소피아’에게 질문했다. “그 질문은 마치 엄마, 아빠 중 누가 좋은 지 묻는 것과 같군요. 난 윤리적으로 생각하도록 프로그램 되어있지 않기 때문에 논리적으로 출입구 가까이에 있는 사람부터 구해야 합니다”라고 대답했다. 이분법적 윤리적 사고의 틀 안에 갇히지 않았을 경우, 오히려 합리적 대안이 나올 수도 있다.
이런 경우는 또 어떨까. 뉴스를 보려는 아빠와 드라마를 보려는 엄마가 채널 선택을 놓고 리모컨 쟁탈전을 벌인다. 이때 로봇이 누구에게 리모컨을 주는 것이 좋을지를 판단하고 선택한다. 그간의 리모컨 점유 시간을 계산해서 계량적으로 판단하는 것보다, 가정이라는 특수성을 고려한다.
각자의 취향을 데이터화시켜 저장했다가, 한 사람에게는 리모컨을 주는 대신 다른 사람에게는 신간 도서를 권하게 한다면 보다 수긍할 수 있는 해결책이 나올 수도 있을 것이다. 윤리적 선택과 실천이 일상 속에서 드러나는 순간이다. 이러한 인공지능의 판단은 인간에게 있어서 딜레마가 주는 선택의 긴장 대신 매우 편안한 느낌을 줄 수 있다.
이런 이야기는 일상적이고 평범하지만, 앞으로 인공지능 시대에 직면하게 될 여러 윤리적 딜레마를 해결하는 시도의 열쇠가 될 수도 있을 것이다. 한 마디로 윤리적 인공지능을 설계하면서 철학자들이 일상 속에서 겪게 되는 윤리적 문제들을 더욱 깊이 있게 성찰하게 한다. 터프츠 대학의 대니얼 데넷(Daniel Dennet)은 이러한 변화에 대해 “인공지능이 철학을 정직하게 만든다”고 정리한다.
그러나 현실은 그리 간단치가 않다. 제3의 대안이 있거나 만들어 낼 수 있다면 다행이지만, 어쩔 수 없이 선택을 강요받는 경우가 있기 때문이다. 앞서 논의된 ‘트롤리 딜레마’ 같은 경우가 그렇다. 또는 자율주행자동차가 주행 중 맞닥뜨리는 상황 즉 갑자기 뛰어드는 동물이나 인간, 고속도로에 떨어진 적재물 등을 피할 경우 어느 방향으로 핸들을 돌리게 할 것인지를 결정해야 한다. 물론 기술의 발전을 통해 이 모든 상황을 파악하고 통제할 수 있다면 로드킬(road kill) 자체가 아예 발생하지 않을 수도 있다.
현재는 이런 상황들에 대한 해결책으로 난해한 선택을 시나리오로 만들어 사전에 설정된 인공지능 시스템 통제 권한 규정에 따라 칩에 이식시키는 방법이 고려되고 있다. 만약 그것이 가능하다면 그것을 인공지능의 윤리 문제는 중요하게 다뤄져야 하고 어떤 철학과 문화, 역사적 배경 속에서 만들어진 시나리오를 탑재시킬 것인지를 선택하면서 논란이 예상된다.
인공지능은 향후 어떤 도덕적, 법적 위상을 갖게 될까? 지난 2017년 유럽 의회에서는 로봇공학 민법 규칙(European Civil Law Rules In Robotics)을 발표했다. 최초로 인공지능을 가진 로봇의 법적 지위를 ‘전자인간’으로 인정하고, ‘로봇시민법’으로 발전시킬 구상을 선보였다.
<뇌 윤리학과 인공지능>
인공지능을 논하기에 앞서 우선 사람의 두뇌에 대한 인위적 조작의 윤리적 문제에 대해 알아보자. 최근 의학계에서는 ‘뇌 윤리(Neuroethics)’라는 논의가 한창이다. ‘뇌 윤리학’이란 뇌에 대한 과학적 발견이 임상의료, 법적 해석, 건강과 사회정책에 적용될 때 발생하는 윤리적, 법적 사회적 문제들에 대한 연구이다.
뇌 촬영술의 발달, 즉 CT(컴퓨터 단층 촬영) 나 fMRI(기능적 자기 공명 영상) 같은 기술은 신경정신과 질병들이 증상이 나타나기 전에 조기에 질병을 진단할 수 있게 해 주고, 치료 약물의 효과도 측정할 수 있게 한다.
예를 들어, 인간 두뇌의 해마를 제거함으로써 간질 발작을 없애거나, 동시에 기억도 없애게 하는 경우를 들 수 있다. 사이코패스인 경우는 뇌의 앞부분인 전전두엽이 일반인 보다 매우 위축되어 있기 때문에 이들 기술을 통해 미리 발병가능성을 파악할 수 있다는 것이다. 또는 두뇌의 특정 부분에 전극을 이식 또는 자극함으로써 파킨슨병과 같은 행동조절환자들에게 스스로 신체를 통제할 수 있도록 회복시켜주는 것이 가능해진다.
이렇게 인위적으로 두뇌에 치료목적을 넘어서는 개입과 즉 두뇌 능력의 증강을 위해 이러한 기술을 사용하는 것이 윤리적으로 허용될 것인지의 문제가 발생한다. 이것은 인간 본연의 두뇌에 감정과 기억능력에 대한 인위적 개입 내지 조작이라는 위험성을 안고 있다. 뇌 윤리를 언급하는 이유는 여기에 있다.
이제 인간에서 인공지능으로 논의를 넓혀가 보자. 종전까지는 인공지능 개발자 즉 인공지능 알고리즘 전문가의 윤리가 논의의 중심이었다면, 딥러닝 기술의 등장으로 이제 인공지능 알고리즘 자체의 윤리도 논의하지 않을 수 없게 되었다.
<딥러닝의 윤리>
딥러닝은 달리 표현하자면, 알고리즘을 만들어내는 알고리즘이라고 할 수 있다. 알고리즘 윤리는 기본적으로 개발자 즉 알고리즘 전문가의 윤리 또는 도덕성을 바탕으로 출발한다. 문제는 알고리즘이 작동하는 연산 과정이 ‘비가시성(invisibility)을 지닌다는 점이다.
예를 들어, ‘아마존(amazon)’은 인공지능 기반의 직원 채용프로그램을 개발했다. 10여 년이 넘는 데이터에 기초해 직원 선발을 하도록 했는데, 압도적으로 남자 직원을 선호하는 경향을 보였다.
물론 아마존은 사회적 영향과 기업 이미지를 위해 이 인공지능 프로그램을 막대한 투자금에도 불구하고 폐기했지만, 무슨 이유로 어떤 과정을 거쳐 그러한 결론에 이르렀는지는 명확히 알 수 없다. 연산 과정 어느 단계에서 누군가의 편견에 의해 어떤 데이터가 부당하게 적용됐는지 모호하기 때문에 또 다른 두려움을 낳는 원인이 되고 있다.
최근의 딥러닝 기술에 적용되는 알고리즘은 더욱 비가시성이 높은 수준이다. 그래서 딥러닝 전문가들의 개인적 윤리는 의사 윤리만큼이나 중요하다. 이전의 제한된 기술을 연구하고 실험하는 공학자로서의 연구 윤리를 넘어서서 실험실 밖의 세상과 연결된 연기적 관점에서 새로운 윤리 규범이 수립되고 준수돼야 할 것이다. 이 부분이 윤리적으로 취약한 이유는 인간은 기본적으로 집단의 일원이 되는 순간 또는 여러 단계를 거쳐 의도가 실현되는 경우 그 윤리 의식이 희미해지거나 무감각해지는 경우가 허다하기 때문이다.
예를 들어, 딥러닝 알고리즘 개발자가 편견이 개입된 알고리즘을 은밀히 작동되도록 숨겨놓는다면, 몇 단계의 알고리즘의 재생과 반복 생산을 거치면서 최종 알고리즘을 통해 심각한 형사 문제가 발생할 수도 있다. 개발자의 최초 의도의 비윤리성이 희석되고 자신도 책임이 줄어든다고 생각할 여지가 큰 것이다. 이미 자신의 최초 의도는 인공지능이 탑재된 로봇 또는 이와 유사한 시스템에 의해서 외형적으로 단절되었다고 합리화할 여지가 있는 것이다.
<인공지능의 도덕적 위상>
인공지능에도 존엄성이 있는가? 인간만이 존엄한가? 동물은 존엄성을 인정받아서는 안 되는가? 인류에게 있어서 일종의 절대 가치로 여겨지는 ‘인간의 존엄성’이라는 개념도 사실은 서양의 근대 이후의 역사적 산물이다.
인공지능이 자극에 반응하고 제한된 기억을 활용하며 나름의 고유한 구조와 특정을 가진 자의식을 갖게 된다면, 인간과 같은 윤리적 지위를 부여할 수 있는지는 여전히 논쟁거리이다. 그 와중에 지난 2017년 유럽 의회에서는 로봇공학 민법 규칙(European Civil Law Rules In Robotics)을 발표했다. 핵심은 인공지능을 가진 로봇의 법적 지위를 ‘전자인간’으로 인정하고, 이를 ‘로봇 시민법’으로 발전시킨다는 것이다.
프랑스 인권선언 이후, 200여 년이 훨씬 지난 지금에도 인권 문제가 세계적 이유로 남아있지만, 로봇의 기본원칙을 선언했다는 의미가 있다. 인공지능 로봇에 대한 무분별한 개발과 착취, 폭력과 파괴의 대상으로 삼는 행위에 반대할 수 있는 근거가 생긴 셈이다. 그러나 동시에 인공지능 시스템을 ‘전자 인간’으로 간주한다면 인공지능 개발자들의 책임을 회피할 수 있는 근거가 될 것이다.
얼핏 보면 인공지능 시스템을 인간과 동일한 수준의 도덕적 위상을 갖춘 행위자로 격상시켜준 것처럼 보이지만, 실상은 그 도덕적, 윤리적 부담을 인공지능 시스템에 전가하기 위한 것이라는 비난도 무시할 수 없는 것이 사실이다. 이러한 문제를 예방하기 위해서 여러 방법이 있지만, 우선 인공지능 알고리즘은 지속적 보완과 수정이 가능할 수 있도록 개방적 구조를 가져야 할 것이다.
인공지능의 윤리는 단순히 특정 집단이나 문화를 대변하는 데이터의 집적이 아니라 변화하는 세상의 가치와 질서에 맞게 평등하고 인류의 보편적 가치를 담아내는 내용이어야 할 것이다. 이를 위해서 인공지능 알고리즘 개발자와 전문가들은 시대의 윤리적 요구에 이전보다 더욱더 깊은 성찰과 이해가 필요하다.
|
|
