인공지능(AI)의 인간화 현상
새해에 들어와서도 여전히 인공지능(AI)이 테크 산업에서는 물론 지구촌 최대의 이슈로 떠오른 추세에 있다. 그것은 인류의 미래 시나리오와 관련하여 대체로 크게 두 갈래로 나누어진다. 하나는 인간의 통제를 벗어난 AI가 인류를 지배하고 살상까지 저지르는 디스토피아적 미래이고, 다른 하나는 고도로 발달한 AI가 인간이 지금까지 풀지 못한 난치병이나 기후변화, 빈곤 문제 등을 쉽사리 해결해 주는 유토피아적 미래이다. 이 분야의 전문가인 몬트리올대 컴퓨터과학과의 벤지오(Yoshua Bengio) 교수는 이것이 어느 방향으로 발전할지는 아무도 모르기 때문에 섣부른 공포와 기대는 모두 바람직하지 않다고 하면서도, “결국 인류에 버금가는 AI는 등장하고 말 것이며, 재앙적 결과를 피하기 위한 대비를 철저히 해야 한다”라고 주장했다.
이미 인공지능이 인간의 사고방식과 행동 양식에 깊숙이 침투하여, 우리는 이제 그것을 제대로 이해하고 통제할 수 있는 보편적인 국제규범과 사회제도 등을 시급히 마련해야 할 입장에 있다. 그렇게 하려면 그 놀라운 기술적 기능이나 효율성뿐만 아니라, 그것을 인식하고 대처하는 우리들 자신의 태도 그 자체에도 관심을 기울일 필요가 있다고 생각된다. 이러한 상황에서 지난해 말 과학 학술지 『네이쳐(Nature)』가 ‘2023 과학계를 만든 인물’에 사상 처음으로 인간이 아닌 대규모 언어 모델(LLM)인 ‘챗GPT’를 올린 것은 매우 흥미 있는 일이 아닐 수 없다. 그 이유로 “과학계에 심오하고 광범위한 영향을 미치며 과학자들의 연구 방식을 바꾸어 놓았다”라면서, 이로 인하여 전 세계 과학계가 더 빠른 속도로 발전하고 효율화되고 있다는 것이다.
그러나 정작 우리의 관심을 끄는 것은 “일부 연구자들에게 챗GPT는 이미 귀중한 연구실 보조가 됐다”라며, “이 프로그램은 원고를 요약하거나 작성하고, 애플리케이션을 다듬고, 코드를 작성하는 데 도움을 준다”라는 대목이다. 또한 “챗GPT가 가짜 참고 문헌을 적고, 사실을 지어내고, 사기꾼과 표절하는 사람을 도울 수 있으며, 악용하면 과학의 우물을 돌이킬 수 없을 정도로 더럽힐 수도 있다”라며 경고하기도 했다. 여기서 우리는 이 학술지가 생성형 AI에 연구실 보조원으로서의 인격성을 부여함으로써 ‘인간 대접’을 하고 있다는 점에 주목할 필요가 있다.
벤지오 교수가 지적하는 바와 같이 올해에는 더욱 크고 성능이 뛰어난 인공지능들이 본격적으로 등장할 것이 예상된다. 무엇보다 “자기 의심(self-doubt)을 할 줄 아는 AI가 그 시작”이라는 것이다. 그는 또한 차세대 AI의 결정적인 차이로 ‘추론(reasoning)’의 능력을 꼽았다. 단순한 문서 정리, 정보 검색, 이미지나 영상 등 콘텐츠 생성 등의 기능을 뛰어넘어 답변의 진실성과 가치관의 옳고 그름을 따지는 ‘보다 사람 같은’ AI의 등장을 곧 보게 된다는 것이다.
그렇게 되면 우리는 인공지능의 정체성에 대해서 좀 더 심각한 문제에 직면하게 될 수밖에 없을 것이다. 기능상 거의 모든 국면에서 자연지능과 구분할 방법 없음에도 불구하고 그것을 여전히 ‘인공’ 지능이라고 해서 차별해야 하는지 고민해 보아야 한다는 것이다.
여기서 특히 유의할 것은 인공지능 못지않게 자연지능에 대한 한층 심도 있는 연구가 수반되어야 한다는 점이다. 가령 생물학적 진화의 과정을 거친 자연지능도 일종의 정보 처리의 체계에 불과한 것이 아닌지, 또한 자유와 책임의 초월적 주체로 간주되어오던 ‘자아’나 ‘자의식’이라는 개념도 정보의 관계망 혹은 ‘교차점(infomania)’일 뿐인 것은 아닌지 선입견 없이 재검토되어야 한다. 그러한 기초 개념들은 언어철학이나 심리철학, 인지과학에서뿐만 아니라 신경생리학이나 뇌과학 등 다양한 분야에서 좀 더 면밀하게 다시 접근할 필요가 있다. 인공지능과 자연지능의 바람직한 공존과 유토피아적 미래를 위해서라도 이제 우리는 합리적이고도 개방적인 자세로 광범위하게 이 새로운 문명사적 ‘개념화’ 작업에 진지하게 임해야 한다.