대규모 언어 모델은 소심하다
불합리한 두려움을 억누르면 최신 인공 지능 발전이 경제 및 사회적 영향이라는 심각한 문제에 주의를 기울일 수 있습니다.
존 아킬라 피터 데닝
생성 인공 지능(AI)을 구동하는 대규모 언어 모델(Large Language Models, LLM)에 대한 초기의 거의 도취감 이후 분위기는 시들해졌습니다. 이제 스포트라이트는 LLM이 자각하고 통제를 벗어나 인류를 소멸시키는 최후의 날 시나리오에 빛을 발합니다.
지각 있는 로봇에 대한 두려움은 새로운 것이 아닙니다. 1899년 단편 소설 에서 Ambrose Bierce는 Moxon이라는 발명가가 만든 로봇을 만들었습니다. 음침한 사람이라면 사람처럼 보였지만 체스에서 Moxon을 이길 정도로 똑똑하지는 않았습니다. 그리고 패배했을 때 로봇은 제어할 수 없는 감정의 깊은 우물을 드러냈습니다. 그것은 Moxon을 살해했습니다.
이 두려움은 그 이후로 책, 연극, 영화에서 인기를 유지해 왔습니다. 일부 나쁜 로봇은 Stanley Kubrick의 고전 2001: A Space Odyssey 의 살인 HAL과 같이 단순히 기계 시스템으로 나타났습니다 . 일부 로봇은 터미네이터처럼 인간처럼 보입니다. 그리고 살인적인 로봇 외에도 때때로 인류를 노예로 만드는 것을 목표로 하는 매트릭스 와 같은 로봇 시스템의 대규모 네트워크가 있습니다 . 인간에게 해를 끼치는 것을 금지하는 세 가지 법칙으로 로봇을 통제하려 했던 아이작 아시모프조차 로봇이 그러한 제약을 피할 수 있다고 걱정했습니다.
ChatGPT와 Bard는 질문에 대한 정교한 답변으로 놀라움을 금치 못하는 LLM의 두 가지 대표적인 예입니다. 이러한 시스템은 LLM이 제공하는 새로운 서비스에 대한 막대한 투자를 촉발시켰습니다. 그리고 그들은 "환각"(물건 꾸미기) 경향이 어떻게 가짜 뉴스, 부정 선거, 대규모 실직, 기업에 대한 신뢰 약화, 심지어 국가 안보의 불안정으로 대혼란을 일으킬 수 있는지에 대한 불안의 급류를 불러일으켰 습니다 . 최악의 두려움은 기계가 지각력을 갖게 되어 우리를 정복하거나 전멸시킬 가능성에 관한 것입니다. 첨단 기술과 정치계의 선도적인 목소리가 합창을 통해 헨리 키신저(Henry Kissinger)가 가장 잘 요약한 것처럼 현재 AI의 발전이 세계를 "일부 재앙을 위한 미친 경주"에 빠뜨렸다고 주장했습니다.
우리의 평가는 멸종 예언에 대한 열광이 우리를 더 좋게 만들었고 매우 가치가 있지만 본질적으로 오류가 발생하기 쉬운 기술을 안전하게 사용하는 방법을 배우는 중요한 작업에서 주의를 분산시키고 있다는 것입니다.
ChatGPT의 핵심은 인터넷에서 수백 기가바이트의 텍스트로 훈련된 96개 레이어와 1,750억 개의 매개변수로 구성된 거대한 인공 신경망입니다. 쿼리(프롬프트)가 제시되면 가장 가능성이 높은 다음 단어 목록으로 응답합니다. 포스트 프로세서는 나열된 확률에 따라 단어 중 하나를 선택합니다. 해당 단어가 프롬프트에 추가되고 주기가 반복됩니다. 나타나는 것은 프롬프트와 통계적으로 연관된 유창한 일련의 단어입니다.
이러한 단어 문자열은 훈련 세트의 여러 텍스트 문서에서 가져오지만 단일 문서에는 나타나지 않습니다. ChatGPT는 응답이 진실한지 확인할 수 없습니다. 이치에 맞지 않는 반응을 "환각"이라고 합니다. 훈련 데이터의 통계적 추론만 있을 때입니다.
불안정함에도 불구하고 LLM 은 오락과 문서, 연설, 연구 프로젝트 및 코드의 초기 초안에 유용할 수 있습니다. 현명한 것은 이러한 목적으로 사용하는 것이지만 유효하지 않은 답변으로 인해 피해를 입을 수 있는 응용 프로그램에서는 사용하지 않는 것입니다. 사실, 논쟁적인 문제를 해결하기 위해 ChatGPT의 기계 공평성을 활용하는 것을 상상하는 것은 어렵지 않습니다. 예를 들어, 우리는 게리맨더링에 대한 로봇식 접근이 AI에 대한 신뢰를 구축하는 좋은 방법이라고 생각합니다. 이국적인 파충류가 아닌 단순한 기하학적 형태처럼 보이는 국회의원 선거구를 설계하는 LLM과 경쟁하는 작업을 수행합니다. 주요 지침은 선거구가 두 주요 정당의 등록 유권자 사이에서 가능한 한 균형을 이루어야 한다는 것입니다. 우리는 인간이 실패한 곳에서 봇이 크게 성공할 것이라고 장담합니다.
감각에 대한 두려움은 어떻습니까? LLM은 결국 너무 많은 텍스트를 흡수하여 모든 인간 지식을 소유하고 우리 중 누구보다 똑똑할 수 있습니까? 그들은 역사의 끝인가? 대답은 분명한 아니오입니다. 인간의 모든 지식이 결국 기계에 포착될 수 있다는 주장은 이치에 맞지 않습니다. 비트열로 표현할 수 있는 지식만 기계에 입력할 수 있습니다. 스포츠, 음악, 숙련된 목수 또는 창작 글쓰기와 같은 수행 기술은 정확하게 기술하고 기록할 수 없는 지식의 대표적인 예입니다. 기술에 대한 설명은 수행 능력을 부여하지 않습니다. 표현될 수 있다 하더라도 수행 기술은 기록할 수 없는 형태, 즉 우리의 생각과 반성, 신경 기억 상태, 신경 근육 화학적 패턴에 있습니다. 그러한 모든 기록되지 않은(그리고 기록할 수 없는) 정보의 양은 기계 데이터베이스에 저장할 수 있는 것보다 훨씬 많습니다. LLM이 수행할 수 있는 모든 기능은 인간의 능력에 비해 작습니다.
이 외에도 통계적 추론은 확실히 인간의 협력, 창의성, 조정 및 경쟁의 전체 이야기가 아닙니다. 우리는 대규모 언어 모델에 너무 매료되어 우리가 언어로 수행하는 나머지 작업을 보지 못합니까? 우리는 관계를 구축합니다. 우리는 서로를 돌봅니다. 우리는 기분을 인식하고 탐색합니다. 우리는 힘을 키우고 행사합니다. 우리는 약속을 하고 이를 이행합니다. 우리는 조직과 사회를 구축합니다. 우리는 전통과 역사를 만듭니다. 우리는 행동에 대해 책임을 집니다. 우리는 신뢰를 구축합니다. 우리는 지혜를 키웁니다. 우리는 사랑하다. 우리는 이전에 상상하지 못했던 것을 상상합니다. 우리는 꽃 냄새를 맡고 사랑하는 사람들과 축하합니다. 이들 중 어느 것도 통계적이지 않습니다. LLM의 능력과 인간의 능력 사이에는 큰 간극이 있습니다.
그리고 LLM을 넘어 더 발전되고 지능에 가까운 기술의 지평에는 어떤 징후도 없습니다.
따라서 선정적인 대화를 억제하는 것부터 시작하여 LLM에 대해 냉정한 태도를 취합시다. "Large Language Model" 대신 "Statistical model of language"라는 문구를 사용하면 어떻게 될까요? "인류는 언어의 통계적 모델을 제어할 수 없기 때문에 멸종한다"라고 표현될 때 멸종 예언이 얼마나 덜 위협적이고 심지어 어리석게 들릴지 주목하십시오.
불합리한 두려움을 없애면 인공 지능의 최신 발전과 LLM의 부정확성과 불안정성에 대한 경제적, 사회적 영향이라는 심각한 문제에 주의를 기울일 수 있습니다. 또한 미국, 중국, 러시아 사이의 지정학적 스트레스에 대해서도 다루겠습니다. AI의 통제 불능한 군사 군비 경쟁으로 인해 악화될 수 있으며 이로 인해 전쟁에 돌입할 가능성이 높아질 수 있습니다. 기계 기반 충돌에서 진 쪽. 이런 점에서 우리는 진보된 AI가 인류의 재앙을 촉진할 수 있다는 Kissinger의 의견에 동의합니다.
무엇보다도 주요 기술 발전을 특징으로 하는 이전 기간과 마찬가지로 이제 과제는 공포와 과대 광고를 피해 현명한 길을 가는 것입니다.
John Arquilla와 Peter Denning은 미 해군 대학원의 저명한 교수입니다. John Arquilla의 최신 저서는 Bitskrieg: The New Challenge of Cyberwarfare (Polity, 2021)입니다. Peter Denning은 가장 최근에 Computational Thinking (MIT Press, 2019) 을 공동 집필했습니다 .
이 기사에 표현된 견해는 전적으로 그들의 견해입니다.
이미지: 셔터스톡.