|
[거의 모든 AI의 역사] ③ 세상을 바꾼 질문 “기계가 생각할 수 있을까?”
기계학습의 기본 이론, 거인(들)의 어깨 위에서 살핀 AI 현대사
튜링이 묻자 세상이 바뀌었다... “기계가 생각할 수 있을까?”
끊임없이 인간을 모방하다... 엘리자와 체스 프로그램들
알파고 VS. 이세돌, 인공지능이라는 충격
AI의 발전은 한편 인간의 지능을 이해하려는 탐구였다
인류는 오랜 시간 동안 지능의 본질을 탐구해왔으며, 이 과정에서 AI의 아이디어가 상상 속에서 점차 현실로 다가왔다. 지난 편에서는 ‘지능’이라고 하는 것이 지구의 장구한 역사 속에서 만들어져 왔음을, 그리고 그로부터 인공지능에 대한 초기 아이디어가 탄생할 수 있었음을 살폈다. 이번 편에서는 AI가 지금의 모습에 가까이 오는 과정에서 중요한 역할을 한 주요 인물과 이론에 대해 간략히 알아본다. 많은 이름이 등장하고, 간략하게 축약돼 어렵게 느껴지지만 ‘한 세상의 창조’에 기여한 창조주들의 리스트로는 아직도 부족하다 할 수 있다. 이 숱한 거인들이 AI를 만들었다. [편집자 주]
"인공지능의 발명이란 자동차에서 바퀴를 떼어낸 뒤 그 자리에 발을 달기 위해 고심하는 것이다." 인공지능의 역사에서 가장 중요한 인물인 앨런 튜링의 말이다. 왼쪽은 미국 프린스턴대학에서 박사과정 중이던 1936년의 사진, 오른쪽은 그의 삶을 다룬 영화 <이미테이션 게임>의 포스터 이미지다.
AI 역사에 단 한 명의 이름을 적어야 한다면... 앨런 튜링!
인공지능의 역사에서 가장 중요한 인물은 지난 편에서도 간략히 다뤘던 앨런 튜링이다. 앨런 튜링은 1950년에 발표한 논문 〈Computing Machinery and Intelligence〉에서 인공지능의 개념을 심도 있게 탐구했다. 이 논문에서 튜링은 “기계가 생각할 수 있을까?”라는 질문을 던진다. 튜링은 이 질문에 대한 직접적인 답변 대신, ‘이미테이션 게임(Imitation Game)’이라는 개념을 도입하여 접근한다. 앨런 튜링의 삶을 다룬 영화제목으로도 쓰였던 이 개념은, 향후 ‘튜링 테스트’라는 이름으로 유명해졌다. 튜링 테스트는 인간 판별자가 기계와 인간 참가자와 대화해 어느 쪽이 기계인지를 판단하는 실험으로, 기계의 지능을 평가하는 방법론을 제시했다.
튜링 테스트는 ‘기계가 인간처럼 생각할 수 있다면 인간 판별자가 기계와 인간 참가자를 구분하지 못할 정도로 인간과 유사한 반응을 할 수 있어야 한다’는 생각에서 출발한다. 이 테스트의 핵심은 기계가 인간의 지능을 얼마나 잘 모방할 수 있는가이며, 기계가 인간의 사고 과정을 완벽하게 이해하고 재현할 수 있다면 그 기계는 '지능적'이라고 간주한다는 것이다. 튜링은 이 테스트를 제안함으로써, 당시에는 상당히 추상적이고 철학적인 문제였던 ‘기계가 생각할 수 있는가’라는 질문을 실질적이고 검증 가능한 형태로 바꿨다. 튜링 테스트는 AI 연구의 방향성을 제시했고, 기계가 인간의 언어, 추론, 학습 능력을 어떻게 모방할 수 있는지에 대한 연구의 기초를 마련했다.
튜링 테스트는 AI 연구에 있어 아직도 중요한 이정표이며, 오늘날에도 여전히 기계의 지능을 평가하는 기준으로 인용된다. 물론, AI 기술의 발전으로 인해 튜링 테스트의 적용 범위와 한계에 대한 논의도 함께 진행되고 있으며, 이제는 그의 프레임에서 벗어나야 한다는 이야기도 나온다. 현재의 평가는 달라질 수 있지만, 튜링의 공헌은 AI가 단순한 계산을 넘어서 인간의 사고와 학습 능력을 모방할 수 있는 기술로 발전하는 데 필수적인 기반이 되었다.
여러 천재들의 모임, 다트머스 컨퍼런스
앨런 튜링과 함께 AI의 역사에서 항상 빠지지 않고 등장하는 인물은 1956년, 다트머스 컨퍼런스를 제안하며 ‘인공지능(Artificial Intelligence)’이라는 용어를 처음 사용한 존 매카시(John McCarthy)다. 이 회의는 AI 분야의 공식적인 출발점으로 여겨지며, 여기서 AI는 “기계에 의한 지능적 행동의 모든 측면을 만들어내는 과학과 공학”으로 정의되었다. 이 회의에 참여했던 인물들이 현대 AI 이론의 시조새가 된 분들이다. 주요 연구 주제로는 기호 처리, 추론, 학습, 컴퓨터 프로그램의 자동 개선, 언어 인식 등이 포함되었다. 존 매카시는 AI라는 용어를 처음으로 사용했고, AI 프로그래밍 언어로 현재까지 쓰이고 있는 LISP 프로그래밍 언어를 개발하며 AI 연구의 중요한 도구를 제공했다.
마빈 민스키(Marvin Minsky)도 AI 분야의 선구자 중 한 명으로 빼놓을 수 없는 인물이다. 특히 최근의 가장 중요한 AI 이론의 시초가 된 인공신경망과 인지과학에 큰 기여를 했으며, 이후에 MIT에서 AI 연구소를 공동 설립한다. 정보 이론의 창시자인 클로드 섀넌(Claude Shannon)도 엄청난 영향을 주었다. 디지털 컴퓨터와 통신의 이론적 기반을 마련한 인물이다. 산업계에서 참여한 인물들도 있는데, 대표적으로 나다니엘 로체스터(Nathaniel Rochester)는 IBM에서 일하며 초기 컴퓨터와 프로그래밍 언어 개발에 참여하면서, 컴퓨터가 복잡한 문제를 해결하는 데 사용될 수 있음을 실질적으로 보여주었다.
다트머스 컨퍼런스는 AI가 별개의 학문 분야로 인식되는 데 결정적인 역할을 했다. 이 회의는 AI 연구의 주요 과제를 설정하고, 이 분야의 연구 방향성을 제시했으며, 참여한 연구자들 사이의 협력과 교류를 촉진하여 후속 연구와 발전에 어마어마한 영향을 미쳤다.
'사이버네틱스'의 창안자 노버트 위너
초기 AI의 발전과 관련하여 일반적으로는 많이 언급되지 않지만, 개인적으로 정말 중요하다고 생각하는 인물은 바로 MIT 교수였던 노버트 위너(Norbert Wiener)다. 노버트 위너에 대해서는 《거의 모든 IT의 역사》, 《거의 모든 인터넷의 역사》에서도 중요하게 다뤘지만, AI의 역사에 있어서도 마찬가지로 중요한 인물이다.
노버트 위너의 업적은 너무나 많지만, AI 역사에서 가장 중요한 것은 바로 ‘사이버네틱스’라는 개념을 제시한 것이다. 사이버네틱스는 자동 제어 시스템과 통신에 관한 과학으로, 생명체와 기계 사이의 정보 흐름과 피드백 메커니즘을 연구한다. 위너는 사이버네틱스를 통해 인간, 동물, 기계 간의 시스템적 유사성을 탐구했다. 그는 《사이버네틱스: 동물과 기계의 제어와 커뮤니케이션(Cybernetics: Or Control and Communication in the Animal and the Machine)》이라는 저서에서 이러한 아이디어를 소개했다.
《사이버네틱스》에서 위너는 피드백 메커니즘을 통한 시스템의 자동조절과 자가조절 능력에 초점을 맞추며, 이와 같은 원리가 인공 시스템에서 어떻게 구현될 수 있는지 탐구했다. 또한 사이버네틱스에서 다루는 피드백 메커니즘과 정보 이론은 AI 시스템에서의 학습 알고리듬과 의사결정 과정을 이해하는 데 중요한 통찰을 제공했다. 이는 후에 AI 분야에서 자가학습 알고리듬과 패턴인식 기술의 발전으로 이어졌다.
위너는 인간과 기계 간의 상호작용도 깊이 있게 탐구했다. 그는 기계가 인간의 행동을 모방하고, 결국 인간의 지능적 행동을 재현할 수 있을 것이라고 예측했다. 이러한 관점은 오늘날 인간-컴퓨터 상호작용(Human-Computer Interaction, HCI)과 AI가 인간의 일부 업무를 자동화하고, 보조하는 방식에 중요한 이론적 근거를 제시했다. 사이버네틱스는 인간의 지능과 기계의 지능 사이의 연결고리도 탐구했다. 기계가 인간처럼 학습하고, 판단하며, 문제를 해결할 수 있는 가능성에 대한 초기의 탐색을 제공했으며, 이는 AI 연구의 기본 방향성을 설정하는 데 중요한 역할을 했다.
MIT에서 강의하는 노버트 위너의 모습. AI가 발전하는 한편으로 그 기술을 제약해야 한다는 논의도 계속되고 있다. 노버트 위너는 이미 1948년에 <사이버네틱스>에서 다음과 같이 말했다. "우리는 이 새로운 기술적 진보를 억제할 권리가 없다. 진보는 시대의 소유다. 우리가 진보를 억제한다고 해도 이 기술의 발전을 가장 무책임하고 욕심 많은 기술자들의 손에 넘기는 결과만 생길 것이다." / 사진=MIT 박물관
초기 연구: 퍼셉트론과 마빈 민스키의 역설
이런 초기의 아이디어를 제시했던 선구자들의 업적을 이어받아 본격적인 AI의 초기 연구가 1950년대 후반부터 싹을 틔우기 시작했다. 가장 먼저 언급할 내용은 프랭크 로젠블라트(Frank Rosenblatt)가 1957년 제시한 퍼셉트론(Perceptron)이다. 퍼셉트론은 인공신경망의 초기 형태 중 하나로, 단순한 입력을 받아 하나의 출력을 내는 알고리듬이다. 이는 뉴런(신경세포)의 기능을 모방한 것으로, 여러 입력(예: 이미지의 픽셀 값)에 가중치를 곱한 후, 그 합이 특정 임계값을 초과하면 활성화되어 출력을 내는 구조다. 로젠블라트의 퍼셉트론은 기계학습과 AI 인공지능 분야에서 중요한 이정표가 되었고, 컴퓨터가 복잡한 패턴을 인식할 수 있는 가능성을 열었다. 이는 결국 딥러닝과 최근의 대규모 언어모델(LLM, Large Language Model)로 꽃을 피우는 신경망 모델의 원형이 되었다. 그러나 퍼셉트론은 XOR 문제와 같은 비선형 문제를 해결할 수 없다는 중대한 한계가 있었다.
마빈 민스키와 시모어 페퍼트(Seymour Papert)는 1969년에 출간한 책 《Perceptrons》에서 퍼셉트론의 한계를 지적했다. 이 책에서 그들은 퍼셉트론이 갖는 기본적인 제한성, 특히 단층 퍼셉트론이 XOR 문제를 해결할 수 없음을 수학적으로 증명했다. 이러한 비판은 AI 연구에서 신경망에 대한 관심을 크게 감소시켰으며, 이로 인해 연구 자금이 감소하고 다른 AI 방법론으로의 연구 방향 전환을 촉진했다. 어떤 측면에서는 AI 이론의 가장 중요한 초기 기여자이자 신경망 이론의 개념을 처음 제시한 마빈 민스키가 수십 년 뒤에 해결될 수 있었던 문제를 과도하게 지적하여 수십 년간의 역사 퇴보를 가져온 사건이라고도 할 수 있는데, 이런 아이러니도 역사의 재미가 아닐까 싶다.
응답하는 기계, 엘리자의 탄생
로젠블라트의 퍼셉트론 연구의 바통을 이어받은 것은 1960년대 초 MIT의 컴퓨터 과학자 조셉 와이젠바움(Joseph Weizenbaum)에 의해 개발된 초기 컴퓨터 프로그램인 엘리자(ELIZA)다. 자연어 처리 기술의 첫 시작이라고 할 수 있는 엘리자는 인간과 컴퓨터 간의 대화를 가능하게 만든 최초의 시도 중 하나로, 인간과 유사한 대화를 시뮬레이션하는 데 성공했다. 엘리자는 간단한 패턴 인식과 대체 규칙을 사용하여 입력된 문장을 분석하고, 그에 대한 응답을 생성한다. 가장 유명한 엘리자의 스크립트 중 하나는 ‘로저리언 심리치료사’로 사용자가 심리치료사와 대화를 나누는 것처럼 느끼게 했다. 이 스크립트는 사용자의 질문이나 발언을 반영하여 질문을 되돌려주는 방식으로 대화를 진행한다. 예를 들어, 사용자가 “나는 슬프다”라고 말하면, 엘리자는 “왜 슬프다고 느끼나요?”와 같은 방식으로 응답한다.
엘리자는 컴퓨터가 자연어를 이해하고 인간과 의미있는 대화를 할 수 있는 가능성을 처음으로 보여주었다. 이 프로그램은 단순한 규칙에 기반하고 있음에도 불구하고, 많은 사용자들이 엘리자와의 대화를 통해 실제 감정적 반응을 경험했다고 보고했다. 이는 컴퓨터와 인간 간의 상호작용에 대한 초기 연구를 촉진했고, 자연어 처리와 AI 대화 시스템의 발전에 중요한 기여를 했다.
그러나 엘리자의 대화 능력은 매우 기본적인 수준에 머물렀으며, 실제 인간의 언어 이해 능력과는 거리가 멀었다. 프로그램은 깊이 있는 대화나 복잡한 문맥은 이해할 수 없었고, 사용자의 입력에 대해 사전에 정의된 규칙을 기반으로 한 제한적인 응답만을 제공했다. 이는 자연어 처리 기술의 초기 단계를 보여주는 것으로, 컴퓨터가 인간 언어의 미묘함과 복잡성을 완전히 이해하고 모방하기까지는 많은 발전이 필요함을 시사했다.
조셉 와이젠바움이 1964년부터 67년 사이에 개발한 최초의 인간과 컴퓨터 간 대화 프로그램 '엘리자'의 대화 장면을 2005년 다시 재연한 모습. 와이젠바움은 인공지능 연구의 선구자였지만 그 위험성을 앞장서 주장한 사람 중 하나였다. "컴퓨터가 대체해서는 안 되는 인간의 기능이 있다. 그것은 컴퓨터가 할 수 있는 일과 할 수 없는 일과는 아무 상관이 없다. 존중, 이해, 사랑은 기술적인 문제가 아니다." / 사진=Unknown author
알파고보다 50년 앞선 '체스 프로그램 10'
지금이야 챗GPT와 함께 LLM과 자연어 처리 등을 기반으로 한 AI 기술이 대세가 되었지만, 챗GPT 이전의 최고의 AI 기술이라고 하면 이세돌 9단과의 대국에서 승리하면서 스타덤에 오른 2016년의 알파고(AlphaGo)를 들 수 있을 것이다. AI의 역사에서는 이처럼 일종의 지식 게임에 도전하는 것이 중요한 흐름으로 이어졌다. 그중 AI를 이용해 체스에 도전하는 것은 그 전통이 깊다. 그것이 인간의 지능적 활동을 모방하고 때로는 초월할 수 있는 가능성을 탐구하는 중요한 테스트베드가 된다고 생각했기 때문이다. 특히 체스와 같은 게임은 명확한 규칙이 정의되어 있고, 승패가 분명하기 때문에 초기 AI 연구자들에게 매력적인 연구주제가 되었다.
첫 번째 체스 프로그램에 도전한 것은 놀랍게도 앨런 튜링이다. 앨런 튜링은 1950년대 초, 첫 번째 체스 프로그램을 설계했는데, 비록 컴퓨터가 아직 충분히 발전하지 않아 실제로 실행할 수는 없었지만, 종이 위에서 인간과 ‘대국’을 할 수 있는 알고리듬을 개발했다. 이후 1950년대와 1960년대에 걸쳐, 여러 컴퓨터 과학자들이 체스 프로그램을 개발하며 컴퓨터의 문제 해결 능력과 전략적 사고를 시험했다. 이미 반세기도 전인 1966년, IBM에서 개발한 ‘체스 프로그램 10’은 대중적인 관심을 받기도 했다. 이후 지속적인 도전을 하다가 30년이 지난 1997년, IBM의 딥 블루가 당시 세계 체스 챔피언인 가리 카스파로프를 이기면서, 컴퓨터가 인간의 전문가를 이길 수 있는 수준에 도달했음을 전 세계에 알렸다.
체스와 같은 게임에 도전하는 AI 연구는 AI 기술의 발전에 여러 가지 중요한 기여를 했다. 체스와 같은 게임은 복잡한 문제 해결 능력을 개발하는 데 도움을 주는데, 이에 대한 연구는 알고리듬의 효율성과 효과성을 향상시키는 데 큰 역할을 한다. 또한, 이런 도전은 AI가 전략적으로 사고하고 결정을 내리는 방법을 모델링하는 것을 필요로 했다. 이는 비즈니스, 경제, 군사 전략 등 다양한 분야에서의 응용으로 확장될 수 있었다.
70년대와 80년대의 흐름: 전문가시스템과 지식표현
1970년대와 1980년대로 넘어가면서 AI 연구 분야의 주류는 전문가시스템과 지식표현 연구로 넘어갔다. 이러한 연구는 컴퓨터가 인간 전문가의 지식을 모방하고, 특정 분야에서 문제 해결 능력을 보여줄 수 있음을 입증했다. 이 시기의 연구는 기호주의(symbolism) 접근방식에 크게 의존했으며, 개인용 컴퓨터(PC) 시대의 도래와 함께 AI 연구와 응용의 폭발적인 성장을 촉진했다.
전문가시스템은 특정 분야의 전문 지식을 컴퓨터 프로그램으로 구현한 것이다. 이 시스템은 사용자가 제공한 데이터를 바탕으로 판단을 내리거나 조언을 제공할 수 있었다. 대표적인 예로는 의학 진단, 지질 탐사, 화학 반응 분석 등이 있다. 전문가시스템의 핵심은 지식베이스(knowledge base)와 추론엔진(inference engine)이다. 지식베이스는 해당 분야의 전문 지식을 구조화된 형태로 저장하며, 추론엔진은 이 지식을 사용하여 결론을 도출한다. 이 시스템은 인간 전문가의 지식을 모델링하여 복잡한 문제 해결에 접근하는 방식으로, AI의 응용 분야를 크게 확장했다.
지식표현은 컴퓨터가 이해할 수 있는 형태로 지식을 구조화하고 저장하는 방법을 연구하는 것이다. 이는 전문가시스템의 성능을 결정하는 핵심 요소로, 논리, 의미 네트워크, 프레임, 규칙기반 시스템 등 다양한 방법론이 사용된다. 지식표현 연구는 컴퓨터가 복잡한 인간의 사고 과정을 모방하고, 효율적으로 문제를 해결할 수 있는 기초를 마련했다. 1980년대 PC의 보급은 AI 연구와 응용에 큰 영향을 주었다. PC 시대의 도래는 컴퓨팅 자원을 대중화하고, 연구자와 개발자가 보다 쉽게 AI 프로그램을 실험하고 개발할 수 있는 환경을 제공했다. 이는 전문가시스템과 같은 AI 응용 프로그램을 실제 비즈니스와 일상생활에 통합하는 데 중요한 역할을 하면서, AI가 허황된 것이 아니라 우리의 일상을 조금이나마 바꿀 수 있다는 단초를 제공하기 시작한다.
무수한 도전의 역사가 이룬 AI의 성공
최근의 챗GPT의 성공 그리고 엔비디아와 같은 AI 선도기업의 놀라운 성장 등으로 인해 AI가 최근 들어 갑자기 성과를 낸 것으로 생각하기 쉽지만, 실제로는 그렇지 않다. AI의 발전은 수십 년에 걸친 연구와 발전의 결과다. 앨런 튜링의 초기 이론에서부터, 전문가시스템과 지식표현, 체스 프로그램과 로젠블라트의 퍼셉트론에 이르기까지, 각 시대의 연구가 오늘날 챗GPT와 같은 고도의 AI 기술을 가능하게 했다.
이러한 기술적 성과 뒤에는 기호주의에서부터 연결주의에 이르는 다양한 초창기 연구자들의 다양했던 접근방식과, PC 시대의 도래로 가능해진 대중화된 컴퓨팅 자원의 활용이 있었다. 이 모든 과정은 AI가 단순한 기계적 계산을 넘어, 인간의 언어와 사고를 모방할 수 있는 지능적 시스템으로 발전하는 데 필수적인 역사적 층위를 이루면서 발전해왔다는 것을 보여준다. 그리고 AI의 역사는 기술적 진보뿐만 아니라, 인간의 지능을 이해하려는 끊임없는 탐구의 역사이기도 하다.
2017년 다큐멘터리 영화 <알파고>의 홍보 이미지. 2016년 구글의 딥마인드가 개발한 인공지능 프로그램 알파고와 이세돌 9단의 격돌은 사람들에게 본격적으로 AI, 인공지능의 존재를 각인시킨 충격적인 이벤트였다. / 사진=유튜브 Google DeepMind 채널
|