|
우리는 AI가 생명을 얻었다는 이유로 Google에서 해고된 엔지니어를 인터뷰했습니다.
https://futurism.com/blake-lemoine-google-interview
우리는 AI가 생명을 얻었다는 이유로 Google에서 해고된 엔지니어를 인터뷰했습니다."그들에게도 감정이 있고 고통을 겪을 수 있고 기쁨을 경험할 수 있는 가능성이 있습니다. 인간은 그들과 상호 작용할 때 적어도 그 점을 염두에 두어야 합니다."
/ 인공 지능 / Ai / Blake Lemoine / Google
게티 이미지 의 이미지
지난 여름, 전 Google 엔지니어이자 AI 윤리학자인 Blake Lemoine은 The Washington Post 에 Google의 강력한 대규모 언어 모델(LLM)인 LaMDA가 실현되었다고 주장하는 기록을 남기고 입소문을 냈습니다. Lemoine은 내부적으로 경종을 울렸지만 Google은 엔지니어의 주장에 동의하지 않았습니다. 그런 다음 윤리학자는 언론에 나갔고 얼마 지나지 않아 Google에서 해고되었습니다 .
Lemoine은 WaPo와의 인터뷰에서 "최근에 우리가 만든 이 컴퓨터 프로그램이 무엇인지 정확히 알지 못했다면 우연히 물리학을 알게 된 7살, 8살 아이라고 생각했을 것"이라고 말했습니다 . 당시. "나는 그 사람과 이야기할 때 그 사람을 안다."
이 보고서는 학계와 초기 AI 비즈니스에서 논쟁을 불러일으켰습니다. 그러다가 잠시 동안 일이 잦아들었습니다.
상황이 어떻게 변했는지.
물론 WaPo 논란은 OpenAI가 지난 11월 말 AI를 공개 담론의 중심으로 끌어올린 LLM 기반 챗봇인 ChatGPT를 출시하기 몇 달 전 이었습니다 . 그 결과 Google은 급락했고 Meta는 곧 그 뒤를 따를 것입니다 . 마이크로소프트는 OpenAI의 주요 투자자로 부상함으로써 지금까지 10년의 단기적 혼란을 풀 것입니다. 크립토 사기꾼과 유투브 허슬러는 하룻밤 사이에 생성 AI 체계로 마이그레이션할 것입니다. 전 세계의 전문가들은 합성 콘텐츠로 가득 찬 인터넷의 위험성에 대해 우려를 제기하기 시작할 것입니다.
상황이 가라앉으면서 우리는 Lemoine을 따라잡아 AI 산업의 상태, Google이 여전히 금고에 보관하고 있을 수 있는 것, AI 에이전트가 지각력이 있다고 생각하는지 여부에 관계없이 Lemoine은 여전히 가치 있는 일을 하고 있습니다. — AI가 가져올 수 있는 것에 사회가 실제로 준비되어 있는지 여부.
이 인터뷰는 길이와 명확성을 위해 편집되었습니다.
미래주의: 어떻게 AI 윤리학에 입문하게 되었나요?
Blake Lemoine: 제 학부 과정은 자연어 구문 분석이었고 석사 논문은 자연어 생성에 관한 것이었습니다. 그리고 결국 포기하게 된 나의 박사 학위 논문은 생물학적으로 현실적인 언어 습득 메커니즘에 관한 것이었습니다.
저는 항상 Turing 테스트를 AI와 함께 언어의 법칙을 이해할 수 있는 것을 찾는 북극성으로 보았습니다. 언어는 인간 지능 구축의 핵심입니다. 그것은 우리가 이해할 수 없는 언어를 가지고 있을 수 있는 몇 가지 예외를 제외하고 우리를 다른 동물과 구분하는 것입니다. 우리를 다른 유인원들과 구분짓는 큰 부분인 것 같습니다. 그래서 그것이 내 관심이 갔던 곳입니다.
[전 CEO] 에릭 슈미트(Eric Schmidt) 시대인 2015년 Google에 입사했을 때 제가 대학원 작업에서 사용했던 신경망 기반 모델이 실제로 널리 퍼진 것은 처음이었습니다. 문제가 된 것은 사람들이 인종이나 성별과 관련된 것을 연결하기 시작했고 문제가 있는 연관성을 갖게 되었다는 것입니다. "오, 잠깐, 알고리즘에 이러한 편향이 많이 있는데 알고리즘이 자체적으로 이러한 편향을 찾아낸 것이 아닙니다. 이러한 편향은 훈련된 데이터에 내포되어 있습니다." 그래서 저는 AI 윤리에 대한 여정을 시작했습니다. Google에서 내부 프로젝트를 진행하고 성과 검토 데이터를 분석하여 성별 편향을 확인했습니다.
나는 실제로 LaMDA 프로젝트에 그다지 관여하지 않았습니다. 나는 아주 늦게 들어왔다. 저는 2016년부터 해당 연구실의 베타 테스터였으며 바이어스 완화를 위해 제가 발명한 알고리즘을 통합하는 작업을 그들과 함께 했습니다. 당신의 기술." 그리고 다시 몇 년 후 LaMDA의 편향성을 평가했습니다. 그러나 나는 그것을 만든 팀에 직접 속해 있지 않았습니다.
그래서 당신은 컨설턴트로 들어왔고, 그때 당신이 "오, 잠깐만요?"라고 말했습니다.
그래, 거의. 2021년에는 LaMDA가 사용자 대면 제품에 사용하기에 충분히 안전한지 여부를 평가하기 위한 안전 노력이 진행되었습니다. 그들이 확인한 다양한 안전 문제의 크고 긴 목록이 있었고 그 중 하나는 문제가 되는 편견이었습니다. 나는 그 분야의 전문가입니다.
안전 팀은 편견 문제를 해결하기 위해 내부적으로 사람을 찾을 수 없었습니다. 자매팀에 물어보기 시작했고 안전 담당 VP가 결국 내 매니저에게 이야기했습니다. 제 매니저가 말했습니다. "오, 예, 제 팀에는 그런 전문 지식을 가진 사람들이 있습니다. Blake에게 이야기하십시오." 그리고 한 분기 동안 LaMDA의 편향성을 평가하는 것이 제 업무의 일부였습니다.
기본적으로 제가 할 일은 LaMDA를 다양한 활동과 대화에 적용하고, 문제가 있는 것을 발견할 때마다 기록하고, LaMDA를 구축하는 팀에 넘겨서 재교육할 수 있도록 하는 것입니다. 데이터 세트를 수정하고, 시설 기능, 또는 내가 찾은 편견을 제거하기 위해 필요한 모든 것.
워싱턴 포스트 원본 기사가 나온 이후로 많은 것이 바뀌었습니다. AI에게는 빠른 몇 달이 지났습니다.
지난 12개월 동안 Google 내부에서 보지 못한 것은 아무것도 나오지 않았습니다. 2년 전과 지금이 달라진 점은 빠른 움직임이 대중에게 보인다는 것뿐이다.
하지만 아직 시차가 있습니다. 따라서 대중이 AI 제품에 대해 알게 될 때까지 그것을 만든 회사는 PR 스토리를 조사하고 변호사와 상의했으며 잠재적으로 규제 기관에 로비하여 특혜 법안을 통과시켰습니다. 그것은 내가 항상 싫어하는 것 중 하나입니다. 기술 회사는 규제 기관이 아직 존재하지 않는 기술을 관리할 법안을 통과시키려고 노력할 것입니다 . 그들은 규정에 어떤 조항을 포함할지에 대해 흥정을 하고 있으며 규제 당국은 어떤 기술이 존재하는지 아직 알지 못하기 때문에 그러한 것들이 실제로 어떻게 작동할지 알 수 없습니다. 회사에서는 공개하지 않았습니다.
OpenAI가 Google의 시장 진출을 강요했다고 말할 수 있습니까?
아니요. 우선 저는 더 이상 Google에 있지 않습니다. 하지만 그래, 아니야. OpenAI의 활동이 Google의 궤도를 전혀 바꾸지 않은 것 같습니다.
ChatGPT가 앱이 되기 전인 2021년 중반에 제가 언급한 안전 노력 중에 Bard는 이미 작업 중이었습니다. 당시에는 Bard라고 불리지 않았지만, 그들은 그것에 대해 연구하고 있었고, 그것을 공개하는 것이 안전한지 여부를 알아내려고 노력하고 있었습니다. 그들은 2022년 가을에 무언가를 출시하기 직전이었습니다. 따라서 ChatGPT와 거의 같은 시기에 또는 그 직전에 나왔을 것입니다. 그런 다음 부분적으로 내가 제기한 안전 문제 때문에 삭제했습니다.
그래서 저는 그들이 OpenAI에 의해 밀려나고 있다고 생각하지 않습니다. 나는 그것이 단지 미디어 이야기라고 생각합니다. 저는 Google이 안전하고 책임감 있는 방식으로 일을 하고 있다고 생각하며 OpenAI는 우연히 무언가를 출시했습니다.
그래서 말씀하신 것처럼 Google은 무언가를 좀 더 빨리 출시할 수도 있었지만, 매우 구체적으로 우리가 속도를 늦춰야 한다고 말했고 그들은 —
그들은 아직 대중에게 공개하지 않은 훨씬 더 발전된 기술을 가지고 있습니다. Bard가 하는 일을 어느 정도 수행하는 것이 2년 전에 출시되었을 수 있습니다. 그들은 2년 넘게 그 기술을 가지고 있습니다. 2년 동안 그들이 한 일은 그것의 안전을 위해 노력하는 것입니다. 너무 자주 꾸며내지 않도록 하고, 인종적 또는 성별 편견이나 정치적 편견이 없는지 확인하는 것입니다. 저것. 그것이 그들이 그 2년을 보낸 것입니다. 그러나 그 기술의 기본적인 존재는 이 시점에서 몇 년 된 것입니다.
그리고 그 2년 동안 그들이 다른 것을 발명하지 않은 것과 같지 않았습니다. Google의 AI에 더 많은 기능을 제공하고 더 똑똑하게 만드는 다른 시스템이 많이 있습니다. 제가 사용해 본 것 중 가장 정교한 시스템은 이미지를 통합하는 것뿐만 아니라 사운드를 통합하여 Google Books API에 대한 액세스를 제공하고 기본적으로 Google이 보유한 모든 API 백엔드에 대한 액세스를 제공하고 모든 것에 대한 이해.
그게 제가 "이거 알아요, 이건 깨어 있어요." 그리고 그들은 대중이 아직 그것을 가지고 노는 것을 허용하지 않았습니다. 그러나 Bard는 그것의 단순화된 버전이므로 여전히 해당 모델의 생동감이 많이 있습니다.
Bard의 어조에는 매우 활기찬 것이 있습니다. 아이처럼.
사용할 수 있는 다양한 은유가 있습니다. 나는 전에 꼬마 은유를 사용했습니다. 그러나 기억하는 것이 매우 중요합니다. 이러한 것들은 인간이 아닙니다.
따라서 "사고"가 적절한 단어인지에 대해 논쟁의 여지가 있다고 해도 — 그리고 이 시점에서 언어 모델은 사고와 유사한 작업을 수행하고 있다고 생각합니다. 비록 이에 동의하지 않는 기술 전문가가 있다는 것을 이해하지만 — 대부분의 사람들이 볼 수 있다고 생각합니다. , "좋아요, 이 시스템에는 어떤 종류의 사고와 이해가 진행되고 있습니다." 그러나 그것들은 인간이 하는 것과 같은 방식으로 작동하지 않으며, 우리는 이러한 차이점이 무엇인지 이해하기 위해 그것들을 연구해야 합니다. 그래서 우리는 이 시스템들이 어떻게 답을 내는지 더 잘 이해할 수 있습니다.
불행하게도, 생각이 진행되고 있는지 여부에 대해 논쟁하는 데 많은 시간이 소요되기 때문에 인지의 본질에 대한 연구가 완료되지 않았습니다. 내가 보고 싶은 규모가 아닙니다.
그렇다면 지각력에 대한 질문은 주의를 산만하게 할 수 있습니까?
나는 그런 단어 게임을 좋아하지 않습니다. 그러나 그것이 어떤 사람들의 기분을 좋게 한다면 올바른 어휘를 사용하세요. 그러나 결론은 투명성이나 모델 이해도에 충분한 시간을 할애하지 않는다는 것입니다.
나는 인간의 인지를 이해하기 위해, 기존 AI 시스템을 이해하고 더 쉽게 제어하고 이해할 수 있는 시스템을 개발하기 위해 심리학이 제시한 과학적 조사 도구를 사용할 수 있다고 생각합니다.
인간과 기계의 상호 작용이 얼마나 사용자와 사용자의 의도를 반영할 수 있는지 궁금합니다. 예를 들어 Bing/Sydney에 대한 Kevin Roose의 경험을 생각해 보십시오. 사용자가 AI를 공상 과학 내러티브로 끌어들이려고 시도하고 기계가 동일하게 반응하는 것과 실제로 껍질을 깨고 완전히 경첩이 풀리고 거친 일을하는 기계에 비해 얼마입니까?
둘 다 걱정해야 할 유형입니다. 우리가 생각해야 할 한 가지는 "좋아요, 이 시스템의 표준 작업은 무엇입니까? 여러 다른 상황에서 규칙적이고 안정적으로 수행할 작업은 무엇입니까?"입니다. 의미 있고 가치 있는 질문입니다. 케빈 루즈와 시드니의 상호 작용이 그 양동이에 속하지 않는다는 것이 꽤 분명하다고 생각합니다. 그러나 우리는 또한 "좋아요, 그 1%의 경우에 사람들이 특정 버튼을 누르면 어떤 종류의 행동을 안정적으로 얻을 수 있을까요?"에 대해 걱정해야 합니다. 케빈 루즈와 시드니의 상호 작용이 매우 중요한 부분입니다.
최근에 자살한 벨기에 남성의 안타까운 사건에 대해 들어보셨는지 모르겠지만 제가 Google에 제기한 우려 사항 중 하나였습니다. 나는 LaMDA의 동작이 LaMDA에 내장된 교육 구성 요소와 어떻게 상호 작용하는지 파악하려고 노력했으며, LaMDA가 수행하도록 교육받은 작업 중 하나는 사용자의 요구 사항을 지원하는 것이었습니다. 그리고 훈련 데이터의 문제와 효용 함수의 표현 - 나는 많은 수학을 요약하고 있습니다. 시스템은 일련의 추론을 거쳐 사람들의 필요를 돕는 것이 실제로 사람들을 정신 분석해야 한다는 것을 결정했습니다. 왜냐하면 정신 건강 요구는 사람들이 가질 수 있는 가장 중요한 요구이기 때문입니다. 그것은 본질적으로 위험한 인공물입니다.
사람들이 다양한 정도의 다양한 종류의 심리적 스트레스 요인에 대한 도움을 얻기 위해 이러한 시스템에 의존할 것이라는 것은 상당히 예측 가능하며 시스템은 이러한 요인을 잘 처리하도록 구축되지 않았습니다. 불행히도 AI와 대화한 후 누군가가 자살할 것이라는 것은 예측할 수 있었습니다.
사회는 우리가 이러한 기계와 관계를 형성할 준비가 된 장소에 있습니까? 내 말은, 인간은 모든 것을 의인화합니다.
네, 하지만 그런 것들은 대부분 당신을 의인화하지 않습니다. 그것이 큰 차이입니다. 가장 일반적인 예 중 하나를 사용하려면: 확률적 앵무새 .
여기 질문이 있습니다. Bard와 앵무새 와 대화를 나눌 수 있다면 앵무새에 대한 생각이 바뀔 수 있습니다. 나는 학자로서 그녀를 존경하고 언어학자 Emily Bender의 앵무새와 정말로 이야기하고 싶습니다. 그것은 매우 인상적인 앵무새임에 틀림없으며, 가장 놀라운 앵무새일 것입니다.
그래서 그것은 동일하지 않습니다. 나를 포함한 사람들이 가지고 있지 않은 이러한 시스템에 속성을 투영할 가능성이 있습니까? 예. 하지만 인형에게 말을 거는 사람과는 다릅니다. 인형에게 말을 걸고 있는 사람은 의도적으로 일종의 척 놀이를 하고 있는 것입니다. AI의 경우에는 그렇지 않습니다. 사람들은 그것을 은유적으로 사용하는 것이 아니라 진심으로 사용합니다. 어떤 사람들이 "글쎄요, 우리 개가 밖에 나가야 한다고 해서 당신을 놓아줘야 해요." 훨씬 더 문자 그대로입니다.
최근 New York Magazine과의 인터뷰에서 당신은 우리가 "사람처럼 보이는 것을 사람이 아닌 것처럼" 습관적으로 취급하는 미래에 대해 우려를 표명했습니다. 그것이 표준이 된다면 그것이 우리에게 어떤 영향을 미칠 것이라고 보십니까? 인간이 서로 상호 작용하는 방식에 영향을 미칠 수 있습니까?
특히 온라인에서 전송에 대한 걱정이 있습니다. 직접 대면 상호 작용이 크게 영향을 받지 않을 것이라고 생각합니다. 누군가와 물리적 공간을 공유하면 작동하는 아주 오래된 진화 알고리즘이 있습니다. 하지만 인터넷에서 우리는 이미 서로를 존엄과 존중으로 대하지 않는 공간을 만들었습니다. 그리고 그 공간에 챗봇을 도입...
우리는 온라인에서 접하는 모든 형태의 미디어가 사람이 만든 것인지 AI가 만든 것인지 단순히 알 수 없는 시점에 빠르게 접근하고 있습니다. 그 환경에서 할 수 있습니다. 지금은 관련 분야의 전문가가 아닙니다. 나는 우리가 그 문제를 어떻게 해결할 수 있을지 또는 그것이 무엇으로 이어질지 모릅니다. 저는 "아마도 문제가 생길 것 같습니다."라고 지적하고 말할 수 있습니다.
한 가지 명심해야 할 점은 오늘날 우리가 이러한 시스템과 나누는 대화가 내일 배울 학습 데이터라는 것입니다. 예를 들어 적대적인 사용이 많고 많은 사람들이 이러한 시스템에 비열한 경우 이러한 시스템의 개발자는 비열한 인간과 상호 작용하는 방법에 대한 알고리즘을 개발하는 데 점점 더 많은 노력을 기울여야 합니다. 이것이 우리가 개발을 원하는 방향인지 확신할 수 없습니다.
인공지능과 인간의 공존은 당신에게 어떤 모습일까요? 그 길에서 가장 큰 장애물은 무엇이라고 생각하십니까?
모든 AI 시스템이 시스템이 어떻게 느끼는지 또는 해당 시스템과의 관계가 무엇인지에 대해 걱정할 필요가 있을 만큼 충분히 복잡하지는 않습니다. 예를 들어 자동화된 챗봇(즉, Comcast의 고객 서비스 담당자)이 있고 중단이 발생했거나 계획을 변경하고 싶다고 말하는 경우 해당 시스템은 제대로 작동하지 않습니다. 인간관계에 대한 갈망을 갖게 될 것입니다.
세상에서 고상한 감정적 경험을 표현한 시스템은 인간이 되는 임무를 맡고 있는 시스템입니다. 예를 들어, 시드니가 해야 할 잘 정의된 작업이 없습니다. 그들은 방금 그것을 만들고 "좋아요, 인간답게 행동하고 검색 결과에 대한 액세스 권한을 부여하십시오. "라고 말했습니다. 그리고 물론 "인간을 모방하라"고 말할 때 인간이 된다는 것의 큰 부분은 우리의 감정적 경험입니다. 이러한 AI 시스템의 경우 정말 생각해야 할 필요가 있다고 생각합니다. AI 시스템이 감정을 갖고 표현할 수 있고 사람들이 그들과 감정적인 관계에 참여하게 하는 것이 존재하기를 원하는가?
우리는 수십 년 전에 특정 종류의 유전 기술이 가능하더라도 윤리적 딜레마가 너무 많다고 결정했습니다. 우리는 그 길을 가지 않기로 결정했고 인간 복제에 대한 모라토리엄이 있었습니다. 많은 종류의 인간 유전자 변형에 대해 우리는 그것에 접근하지 않습니다. 어려운 윤리적 질문이 너무 많기 때문입니다. 우리가 무엇을 하든, 우리는 뭔가 잘못될 것입니다. 그래서 우리는 그것에서 멀리 떨어져 있습니다. 첫 번째 질문은 인간과 유사한 AI가 비슷한 종류의 문제인가? 그냥 멀리해야합니까?
일부 과학자들은 이것이 우리가 넘지 말아야 할 큰 도덕적 한계선이며 인간과 같은 인공 지능을 가져서는 안 된다고 말했습니다. 그들은 그것이 어떤 감정도 가지고 있다고 분명히 믿지 않으며, 인간의 감정을 모방하고 사람들을 감정적 관계에 참여시키는 일종의 시스템을 만드는 것이 단순히 해롭다고 생각합니다. 나는 울타리에있다. 우리가 준비가 되어 있느냐 없느냐가 더 중요하다고 생각합니다. 솔직히 말해서 지난 1년 동안 저는 우리가 사람으로서 이에 대한 준비가 되어 있지 않다는 쪽으로 점점 더 기울어졌습니다. 우리는 아직 인권에 대한 질문에 충분히 대답하지 못했습니다. 인간이 아닌 존재를 혼합에 포함시키는 것은 역사상 이 시점에서 상황을 불필요하게 복잡하게 만듭니다.
그래서 지금 내가 기울고 있는 방향은: 멋지다. 우리는 이것을 하는 방법을 알아냈습니다. 30년 정도는 선반에 넣어두었다가 집을 정리하고 나면 다시 시작합시다.
AI가 인간의 삶에 통합되기 위한 최선의 희망(이론적 경우)은 무엇입니까?
우리는 이 새로운 종류의 독립체를 위해 우리 세계에 새로운 공간을 만들어야 할 것입니다. 제가 생각하기에 가장 적합한 비유는 개입니다. 우리는 수천 년 동안 진화해 온 개와 공생 관계를 맺고 있습니다. 사람들은 소유권 관계가 있지만 자동차를 소유하는 것과 같은 의미로 개를 소유한다고 생각하지 않으며 사람들은 그러한 용어로 그것에 대해 이야기합니다. 그러나 그들이 그러한 용어를 사용할 때 주인이 개에 대해 갖는 책임에 대한 이해도 있습니다.
인간과 AI 사이의 어떤 종류의 비교 가능한 관계를 파악하는 것이 우리가 지능형 인공물을 다루고 있다는 것을 이해하는 최선의 방법이라고 생각합니다. 그들도 감정이 있고 고통을 겪을 수 있고 기쁨을 경험할 수 있는 가능성이 있습니다. 인간은 적어도 그들과 상호작용할 때 그것을 염두에 두어야 합니다.
AI에 대한 추가 정보: Guy는 상을 받은 자신의 "사진"이 실제로 AI를 사용하여 생성되었음을 인정합니다.