오피니언전문가칼럼
[김정호의 AI시대의 전략] 神 아닌 알고리즘이 지배하는 세상… AI알고리즘에 ‘휴머니즘’ 강제해야
조선일보
김정호 KAIST 전기·전자공학과 교수
입력 2023.07.05. 03:00
https://www.chosun.com/opinion/specialist_column/2023/07/05/VUV4VOEQ3FBELDC7L3FWQRFFUE/
※ 상기 주소를 클릭하면 조선일보 링크되어 화면을 살짝 올리면 상단 오른쪽에 마이크 표시가 있는데 클릭하면 음성으로 읽어줍니다.
읽어주는 칼럼은 별도 재생기가 있습니다.
인공지능 본성은 차별적·편향적, 애매한 상태 싫어하도록 설계돼
결국 처음부터 비윤리적 데이터 빼고 인본주의·자연존중 반영해야
AI는 방사능도 냉각탑도 없어… 인간이 처음부터 ‘윤리적 알고리즘’을
일러스트=백형선·Midjourney
고등학교와 대학 시절에 수학 수식을 전개하고 증명할 때에는 꼭 스프링 노트의 빈 종이에 쓰기를 좋아했다. 필기도구로는 반드시 샤프 연필을 썼다. 지우개로 지우고 나서 깨끗이 고쳐 쓸 수 있기 때문이다. 그래서 가방 속에는 항상 책받침과 지우개가 필수로 있었다.
반면 중학교 들어가면서 영어를 배웠는데, 그때 글씨체 연습은 만년필을 사용했다. 잉크병을 잘못 닫거나 만년필이 망가지면 가방 속과 책들이 파란 잉크로 물이 들곤 했다. 그래도 학교가 좋았다. 그 시절 장난 삼아 집 마당에서 실험으로 파란색 잉크 한 방울을 세숫대야의 물 위에 떨어뜨리고, 잉크가 퍼지는 장면을 관찰하곤 했다. 처음에는 물 위에 파란색 한 점이 생기고, 이후 잉크가 입체적인 선들로 바뀌고, 점점 흩어지면서, 나중에는 대야 전체로 퍼진다. 파란색 물이 된다. 어머니와 누나가 빨래해주고 다려준 여름 교복 색이 된다.
이렇게 잉크 입자가 세숫대야 물속에서 널리 펴져 나가는 물리적 현상을 ‘확산(diffusion)’이라고 한다. 열에너지를 가진 입자들이 서로 충돌하면서 넓게 퍼져 나가는 현상이다. 이때 입자들이 퍼진 확산 정도를 공학에서는 ‘엔트로피(entropy)’라고 부른다. 예를 들어 잉크 한 방울이 한 점에 모여 있을 때 앤트로피 값은 ‘0′에 가깝고, 고르게 잘 퍼져 있을 때 엔트로피 값은 ‘무한대 값’에 가깝게 된다. 이렇게 엔트로피는 ‘무질서’의 척도가 된다. 열역학 법칙에 따르면 시스템은 엔트로피가 증가하는 쪽으로, 즉 무질서해지는 쪽으로 변하려 한다. 그래서 세숫대야 물 전체가 파란색으로 물이 드는 것이다.
그래픽=백형선
그래픽=백형선
하지만 인공지능은 그 반대 방향으로 학습한다. 낮은 엔트로피 방향으로 학습한다. 자연법칙과 반대 방향이다. 학습 과정에서 인공지능이 내리는 결정들이 분산되지 않고 한 가지 결정에 모이도록 학습한다. 챗GPT 생성 모델이 만든 이미지도 흐릿한 그림보다는 초점이 잘 맞은 선명한 그림을 추구한다. 최대의 변별력을 요구한다. 이렇게 낮은 엔트로피 방향으로 학습하는 것이 바로 인공지능의 ‘본성(本性)’이 된다. 인간이 그렇게 정했다.
인공지능이 학습을 얼마나 잘 했는지 정도를 표현하는 숫자로 엔트로피 값을 사용한다. 빅데이터와 GPU(그래픽 처리 장치) 반도체를 이용해서 엔트로피 값이 최소화될 때까지 학습을 계속한다. 조 단위 이상의 변수(parameter)들을 정해가면서 끝장을 본다. 욕심이 많다고 볼 수 있다. 결국 엔트로피의 특성 때문에 인공지능은 본질적으로 차별적이며, 집중적이다. 목적 지향적이며 편향적이다. 애매한 상태를 싫어한다. 마치 수능 킬러 문항과 같다. 나눔과 균형 그리고 평화에 대한 관심이 적다.
그다음으로 인공지능의 본성을 결정하는 알고리즘이 학습 진도에 따라 부여하는 보상 체계(reward function)이다. 학습 과정에서 인간의 의도를 잘 수행할수록 높은 점수의 보상을 받는다. 일종의 칭찬이다. 코끼리처럼 칭찬이 인공지능도 춤추게 한다. 예를 들어 바둑 알파고에서는 바둑 대결에서 이기면 더 좋은 점수로 보상을 준다. 결국 인공지능은 인간이 정해준 보상에 따라 행동한다. 이렇게 보면 인공지능은 얼음처럼 낮은 온도를 갖는다. 따뜻한 심장이 없다. 인간이 그렇게 인공지능 알고리즘을 선택했기 때문이다. 결국 인공지능의 본성은 인간의 책임이다.
이스라엘 히브리 대학의 역사학자인 유발 하라리 교수는 ‘알고리즘이 세상을 지배해야 할까요(Should algorithms rule the world)’라는 제목의 한 대학 강연에서 ‘권위(authority)’에 대해 논하였다. 여기서 권위라는 것은 인간이 자유 의지로 선택하는 권한을 말한다. 그에 따르면 중세 이전에는 인간이 판단하고 행동하는 근거인 ‘권위’가 ‘신(神)’에게서 왔다고 말한다. 그러나 근세에 들어 그 권위가 ‘인간(人間)’에게 내려왔다고 보았다. 소비자가 왕이 된 사건도 같은 맥락이다. 더 이상 투표하면서 신에게 묻지 않는다. 하지만 이제 인공지능 ‘알고리즘(algorithm)’이 인간의 권위를 대신 차지하게 될 것이라고 예측했다. 그러면 결국 인공지능이라 부르는 수학 알고리즘이 인간을 지배하게 된다. 이제 인간의 권위를 되찾기 위해서는 노력이 필요하다. 인공지능에 대한 통제(regulation)가 그 한 방법이 될 수 있다.
인공지능 알고리즘에는 인간이 태초부터 구축해온 생명 존중, 인본주의, 자연 존중 사상이 반영되어야 한다. 이를 위한 인공지능 통제 방법으로는 인공지능 학습에 사용되는 데이터에 대한 통제가 있을 수 있다. 비윤리적이며 편향적인 데이터를 거를 수 있다. 그리고 다음으로는 인공지능 학습에 사용되는 컴퓨팅 능력의 통제이다. 예를 들어 인공지능에 사용되는 GPU와 고대역 폭 메모리(HBM) 등 반도체의 성능과 숫자를 규제해서 인공지능의 능력이 어느 적정선을 넘지 않도록 제어하는 방법이다. 또 인공지능을 위한 데이터 센터의 전기 소모량 통제도 가능할 것이다.
국제원자력기구(IAEA)는 원자력의 군사적 목적 이용을 막고 평화적 이용을 위한 연구를 촉진하기 위해 설립된 유엔 산하 국제기구이다. 불법적으로 핵실험을 한다면 방사능이 누출되고, 냉각탑에서 수증기가 보인다. 통제가 가능하다. 하지만 인공지능에서는 방사능도 없고 냉각탑도 없다. 반도체 메모리 안에 숨겨진 알고리즘과 데이터만 있기 때문이다. 이들은 쉽게 복사되고 다른 곳으로 저장된다. 탐지와 통제 자체가 불가능에 가깝다. 결국 최종적으로 인간의 의식, 표현과 행동, 그리고 창작 결과물 자체가 스스로 윤리적이어야 한다. 이를 바탕으로 인간의 권위가 인공지능 알고리즘에 반영되어야 한다. 연필이나 만년필처럼 인공지능 자체는 잘못이 없다.