2016년 3월12일 알파고와 이세돌 9단의 세번째 대국이 열리는 날, “인공지능 가라사대”라는 <조선일보> 기사를 보면 “의학·법률·경제 전문직까지…그의 결정이 정답이 되는 시대 왔다”라는 설명이 붙었다. 공자님 말씀을 받아 적고 따르듯이 앞으로는 인공지능의 말을 성현의 가르침으로 여기게 되리라는 전망이었다. 당시 인공지능은 인간이 거스르기 어려운 초인간적이고 비현실적인 존재였다.
2016년 모두를 들뜨게 한 약속과 전망이 과연 어떻게 됐는지 미처 검증할 겨를도 없이 챗GPT라는 새로운 인공지능 기술이 등장했다. “생성 인공지능”이라고 불리는 거대언어모델 챗GPT를 두고서도 “인공지능 가라사대” 같은 태도가 없지는 않다. 삶의 목적이나 인류의 미래를 챗GPT에게 물어보는 책도 이미 나왔다. 하지만 2023년의 챗GPT는 공경하고 두려워할 성현보다는 기특하고 부지런한 조수 같은 인상이 강하다.
아는 것 모르는 것 다 긁어모아 그럴듯한 내용을 어떻게든 만들어내는, 꽤 현실적인 일을 하는 존재다. 종종 틀리기도 하고 오류를 이내 바로잡기도 할 때면 인간적이라는 느낌도 든다. 생성 인공지능이 생성하는 문장이 컴퓨터 화면 위로 흘러가는 것을 지켜보다가 ‘생성한다’는 말의 뜻을 생각해본다. 이때 ‘생성하다’는 문장을 목적어로 하는 타동사이지만, 간혹 문장이 주어인 자동사로 보이기도 한다.
“핵반응으로 에너지를 생성하다”라고 쓸 때처럼 챗GPT는 수많은 문장을 재료로 삼아 새로운 문장을 생성한다. 그러나 “끊임없이 생성하고 소멸하는 삼라만상”이라고 할 때처럼, 챗GPT에서 온갖 문장이 생성했다가 소멸한다고 해도 말이 될 것이다. 생성 인공지능은 나를 대신해 문장을 생성하는 것 같으면서도 그 문장에서 어떤 특별한 의지도 느껴지지 않아 흥미롭다.
생전 처음 보는 생성 인공지능이 왜 어딘가 익숙하게 느껴지나 했더니, 나도 챗GPT처럼 키워드 몇 개를 받아 스스로 믿지 않는 문장, 정확한 근거도 없는 문장을 생성하곤 했다는 생각이 났다. 특히 2016년 알파고 열풍 이후에 그랬다. 가령 연구계획서나 보고서 양식에 우리의 연구가 4차 산업혁명, 인공지능 시대, 포스트휴먼 사회, 융합 따위에 얼마나 유용할 수 있는지 적어 넣을 때, 나는 글을 쓰는 것이 아니라 그저 문장을 생성했다.
머리가 아니라 손이 가는 대로 적었다. 내 생각이 아닌 문장을 꾸역꾸역 만들어내고 나면, 이를 평가하는 사람도 별 기대나 감흥 없이 그 문장 위를 스쳐 지나갈 터였다. 그때 생성 인공지능이라는 도구가 있었다면 서로 진심 없이 문장을 쓰고 읽는 수고를 덜 수 있었을 것이다.
인공지능은 항상 정답을 말하는 현자인가, 기특하고 부지런한 조수인가, 또는 놀랍도록 빈칸을 잘 채우는 특급 신인 (공)저자인가. 2016년 알파고에서 2023년 챗GPT에 이르도록 이 관계는 아직 정리되지 않았다. 김대식 카이스트 교수가 챗GPT와 나눈 속 깊은 대화를 신속하게 번역하고 편집해 내놓은 책은 그 표지에 김대식과 챗GPT 둘 다 지은이라고 선언한다.
그러나 책 속에 있는 “ⓒ김대식, 2023”이라는 표시는 저자로서 이 책에 담긴 텍스트에 대한 권리와 책임이 있는 존재는 김대식 교수뿐임을 알리고 있다. 챗GPT는 하염없이 문장을 생성하면서도 저자로서 어떠한 권리도 부여받지 못한다. 2021년 “인공지능 소설가”가 썼다고 해서 잠시 화제가 된 책도 이와 비슷했다.
“인공지능 가라사대”라는 관점은 2023년에 잘 어울리지 않는다. 인공지능이라고 해서 항상 정답을 내놓는 것은 아니라는 사실을 우리는 충분히 배웠다. “로봇의 봄”도 아직 미완성이다. 인공지능이 끝없이 문장을 생성하는 혁명적인 단계에 도달했다고 해도 우리가 글을 써야 하는 이유가 사라지지는 않는다.
챗GPT를 두고 사람들은 앞으로 이렇게 글을 써야 한다거나 저렇게 살아가야 한다고 설파할 것이다. 하지만 중요한 것은 누군가 던져주는 키워드에 휘둘리지 않고 스스로 믿는 바를 글로 써 내려가는 마음이다.(전치형 카이스트 과학기술정책대학원 교수)