🐰2023036, AI 이후의 세계, 헨리 키신저. 에릭 슈머, 대니얼 허튼로커, 2023, 총289쪽
그리스 신화에서 대장장이의 신 헤파이스토스는 크레타 해안을 순찰하며 외적의 침략을 막는 청동 거인 탈로스를 비롯해 인간을 대신하는 로봇을 만들었다. 기원전 700년 전 일이다. 최초의 안드로이드 탈로스를 필두로 하여 17세기 프랑스 왕 루이 14세와 18세기 프로이센의 프리드리히 대왕은 자동기계에 열광하여 직접 시제품 개발을 챙기기도 했다. 이제 챗GPT-4의 시대다. 어쩌면 곧 챗GPT-5가 도래할지도 모른다.
AI는 이미 인간의 지각을 넘어섰다. 그 비결은 시간의 압축 내지는 '시간 여행'이라고 표현할 수 있다. AI는 고도의 알고리즘과 강력한 컴퓨터 성능에 힘입어 인간의 정신으로는 수십, 수백 년이 걸릴 프로세스로 데이터를 분석하고 학습한다.
이 독후감에서 이 책에 있는 딱 두 가지만 인용하려고 한다. 첫째는 215쪽에 이 시대의 지도자들이 재래식, 핵, 사이버, AI를 총망라하여 戰力을 통제하기 위해 여섯 가지 의무를 다해야 한다고 주장하는 것이다. 그것은 AI로 인해 가장 우려되는 분야가 새로운 시대의 오래된 경쟁인 안보와 세계질서 분야이기 때문이다.
그리고 둘째는 AI의 역사를 되돌아보고 AI의 발전 속도를 가늠하면서 AI를 제한하거나 AI와 헙력하거나 AI를 따르는 길을 선택해야 한다는 사실을 직시하려고 한다. 그 선택에 따라서 특정한 작업이나 영역에서 AI를 활용하는 방식이 달라질 것이다. 선택에 앞서 우리는 실용적 차원만 아니라 철학적 차원을 고려해야 한다. 필요하다면 인간이 AI를 따라가야 할 때도 있을 것이다. AI는 우리가 지식을 대하고 얻는 방식을 바꾸고 습득 가능한 지식의 유형을 확장한다. AI시대에는 지식이라는 개념이 인간과 기계의 협력에서 나오는 결과물로 재정의 된다. 우리가 만들고 실행하는 알고리즘이 더 많은 데이터를 인간의 정신과 다른 논리로 더 빠르고 체계적으로 분석할 것이다.
먼저 첫 번째 세계 지도자들의 여섯 가지 의무를 짚어보고자 한다.
1. 냉전시대의 선임자들이 그랬듯이 졍쟁이나 적대 관계에 있는 국가의 지도부가 서로 어떤 형태의 전쟁을 원치 않는지 주기적으로 대화할 준비가 돼야 한다.
2. 핵전략을 둘러싸고 아직 해결되지 않은 난제들이 전략적 기술적 도덕적 차원에서 중요한 문제임을 인정하고 다시금 관심을 기울여야 한다.
3. 사이버, AI 강국은 자국의 독트린과 한계선을 확립하고 경쟁국의 톡트린과 일치하거나 유사한 부분을 찾아야 한다.
4. 핵보유국은 자국의 지휘통제체계와 조기경보시스템을 철저히 실사해야 한다.
5. 각국 특히 기술 강국들은 긴장이 고조되거나 극단적인 상황에서 의사결정 시간을 최대한 확보할 체계적 방안을 합의하에 만들어야 한다.
6. AI 강국들은 군사용 AI의 지속적 확산을 제한할 방법을 모색하거나 외교와 무역 위협에 기초한 확산방지체제를 구축하는 방안을 고려해야 한다.
두 번째, AI의 발전 경로를 살펴보고 AI를 제한하고 AI와 협력하고 AI를 따르는 선택을 결정해야 할 때 중요한 제안을 해야 한다.
1943년 프로그래밍 가능한 디지털 장치로서 최초의 현대식 컴큐터가 탄생했다. 1950년 수학자이자 암호해독자였던 앨런 튜링이 [계산 기계와 지능]이라는 논문에서 어떤 기계가 특정한 영역에서 인간과 '유사하게' 행동하는지 평가하는 수단을 고안했다는 것이다. 그 후에 1956년 컴퓨터과학자 존 매카시는 '인간지능 특유의 작업을 수행할 수 있는 기계' 라는 개념을 처음으로 도입했다.
초기에는 실용적인 AI를 만들기 위해 여러 가지 규칙이나 사실을 가르치는 식으로 인간의 전문성을 컴퓨터 시스템에 입력했다. 체스, 대수학, 비즈시스 프로세스 자동화 등 그 특성을 정밀하게 규정할 수 있는 분야에서는 AI가 큰 진전을 이뤘지만 언어 번역과 시각적 사물 인식 같은 분야에서는 필연적으로 따르는 모호성 때문에 발전이 정체됐다.
그러다가 1990년대에 돌파구가 마련되었다. AI의 핵심은 작업을 수행하는 것, 즉 복잡한 문제를 효과적으로 해결할 방법을 찾고 실행하는 것이다. 그래서 연구자들은 기계가 스스로 학습하는 방식이 필요하다는 발상으로 전환했다. 인간이 선별한 지식을 부호화해서 기계에 입력하는 방식에서 탈피하여 기계에 학습 과정을 일임하는 방식으로 선회했다. 그것이 머신러닝인데 1950년대 부터 연구됐지만 1990년대에 들어서야 비로소 실효성이 생겼다.
현실적으로 가장 효과적인 방식은 신경망을 이용해 방대한 데이터에서 패턴을 추출하는 것이었다. 철학으로 설명하자면 AI계의 선구자들은 세계를 기계론적 규칙으로 단순하게 표현하려던 초기 계몽주의적 관점에서 벗어나 현실에 근접한 모델을 만드는 쪽으로 돌아섰다. 그들은 기계가 고양이 이미지를 인식하려면 여러 상황에서 고양이를 관찰함으로써 고양이가 시각적으로 표현되는 다양한 양상을 '학습'해야 한다고 판단했다. 머신러닝이 가능하려면 어떤 대상의 이상적인 형태를 아는 것 이상으로 그 대상의 다양한 표현법에서 중복되는 부분을 찾는 것이 중요했다. 즉 플라톤(본질을 식별)이 아니라 비트켄슈타인(유사성 일반화)의 방식을 따라야 했다. 이로서 머신러닝, 즉 경험으로 학습하는 프로그램이 AI계의 관심사로 부상했다(99).
1958년 코넬대 항공연구소의 프랭크 로젠블랫에게 문득 아이디어가 떠올랐다. 인간의 뇌는 1000억 개의 뉴런을 1000조 개의 시냅스와 연결해서 정보를 부호화하는데 그와 유사하게 정보를 부호화하는 방식을 만들 수 있을까? 그는 답을 찾기 위해 노드(뉴런에 해당)와 가중치(시냅스에 해당)의 관계를 부호화하는 인공신경망을 설계했다. 신경망은 수많은 노드를 상호 연결하고 각 연결부의 강도를 나타내는 가중치를 지정함으로써 정보를 부호화하는 네트워크다. 하지만 컴퓨터 성능의 한계와 정교한 알고리즘의 부재로 수십 년간 기초적 수준에 머물렀다.
그러다가 최근 들어 컴퓨터 성능과 알고리즘이 진일보하면서 AI개발자들이 비로소 그런 속박에서 해방됐다. 딥러닝을 통해 신경망은 훈련 데이터에 반영된 복잡한 관계를 포착하고 인간 이상의 복잡다난한 관계를 파악할 수 있다. 훈련단계에서 AI는 새로운 데이터를 입력받고 신경망 내의 가중치를 조정한다. 따라서 신경망의 정확도는 훈련 데이터의 양과 질에 따라 달라진다. 신경망에 더 많은 데이터가 입력돼 그 층이 늘어날수록 가중치도 관계를 더 정확히 포착할 수 있게 조정된다. 현재 딥러닝용 심층신경망은 주로 10층 내외로 구성된다.
신경망 훈련에는 자원이 많이 소모된다. 방대한 데이터를 분석해서 신경망을 조정하려면 강력한 컴퓨터 성능과 복잡한 알고리즘이 필요하기 때문이다. AI는 인간이 이성과 같은 사유가 아니라 자신이 개발한 모델을 동원해서 결론에 도달한다.
현재의 시점에서 주목할 만한 3대 머신러닝 기법은 지도학습, 비지도학습, 강화학습이다. 지도학습은 각각의 입력에 바람직한 출력이 지정된 데이터세트가 확보된 상황에서 새로운 입력에 관한 출력을 예측하는 모델을 만들 때 사용한다.
비지도학습은 인간보다 많은 데이터를 처리하고 미묘한 패턴도 식별하기 때문에 인간이 찾지 못하는 패턴을 찾아낼 수 있다. 이런 AI는 올바른 출력을 제공받지 못한 채로 훈련하기 때문에 마치 인간이 독학할 때처럼 놀랍도록 혁신적인 분석 결과를 도출할 수 있고 황당한 결과를 내놓기도 한다.
강화학습은 AI가 통제된 환경에서 주체가 되어 제 행동에 대한 반응을 관찰하고 기록한다. 이 강화학습은 피드백이 필수적인데 피드백을 제공해서 AI의 행동이 얼마나 성공적이었는지 알려주는 것이 보상함수다. AI는 디지털프로세서로 구동되면서 단 몇 시간 만에 수백 수만 수억 번 스스로 훈련하기 때문에 인간이 일일이 피드백을 주지 못한다. 그래서 프로그래머들은 보상함수를 자동화하고 그 함수가 작동하는 방식과 시뮬레이터가 현실을 모사하는 방식을 정밀하게 설정한다.
2015년 이후 심층신경망을 활용하는 생성형 AI를 훈련하게 되는데 상호보완적이 학습 목적을 가진 두 신경망을 경쟁시키는 것이다. 이를 생성형 적대 신경망 GAN (Generative Adversarial Network)이라고 부른다. 이것은 잠재적 출력을 생성하는 생성망과 조악한 출력의 생성을 막는 판별망으로 구성된다. 생성망은 브레인스토밍을 하고 판별망은 유의미하고 현실적인 아이디어를 선별한다.
현존하는 AI중에 가장 주목할 만한 예는 인간과 유사한 텍스트를 만드는 GPT-3이다. GPT-3는 언어를 번역하는 차원을 넘어 언어를 생성한다. 몇 가지 단어를 제시하면 추론으로 문장을 생성하고 주제문을 제시하면 문단을 생성한다. GPT-3같은 트랜스포머는 텍스트처럼 순차적으로 나열된 요소들에서 패턴을 포착해 다음에 올 확률이 높은 요소를 예측하고 생성한다. GPT-3는 단어, 문단, 코드의 순차적 의존성을 포착해 출력을 생성한다. 이것은 GPT-3란 Generative Pre-trained Transformer'의 약자이며 3은 제3세대를 말한다. 오픈 AI가 2022년 11월에 발표한 인공지능 챗봇 챗 GPT는 좀 더 개선된 GPT-3.5로
만들어졌으며 2023년 3월에는 GPT-4를 탑재한 버전이 출시됐다.