|
이 게시물에서는 이미 존재하거나 곧 발생하게 될 위험에 초점을 맞추겠습니다. 나는 오늘날의 특수 목적 AI와 달리 어떤 주제나 작업도 학습할 수 있는 AI를 개발할 때 어떤 일이 일어나는지 다루지 않습니다. 우리가 10년 안에 그 지점에 도달하든, 아니면 100년 안에 도달하든, 사회는 심오한 질문을 생각해 볼 필요가 있습니다. 슈퍼 AI가 스스로 목표를 설정한다면 어떨까요? 인류와 충돌한다면 어떻게 될까요? 슈퍼 AI를 만들어야 할까요?
그러나 이러한 장기적인 위험을 고려하면서 더 즉각적인 위험을 희생해서는 안 됩니다. 이제 그들에게로 돌아가겠습니다.
AI가 생성한 딥페이크와 잘못된 정보는 선거와 민주주의를 훼손할 수 있습니다.
기술이 거짓말과 허위를 퍼뜨리는 데 사용될 수 있다는 생각은 새로운 것이 아닙니다. 사람들은 수세기 동안 책과 전단지를 통해 이를 수행해 왔습니다. 워드 프로세서, 레이저 프린터, 이메일, 소셜 네트워크의 출현으로 인해 작업이 훨씬 쉬워졌습니다.
AI는 이러한 가짜 텍스트 문제를 해결하고 확장하여 사실상 누구나 딥페이크로 알려진 가짜 오디오 및 비디오를 만들 수 있도록 합니다 . 아이가 “나 납치됐어요. 10분 안에 이 계좌로 1000달러 보내주시고, 경찰에 신고하지 마세요”라는 음성 메시지가 나온다면, 정신적으로 엄청난 충격을 줄 것입니다. 같은 내용을 말하는 이메일의 효과를 넘어서는 것입니다.
더 큰 규모로 AI가 생성한 딥페이크를 사용하여 선거를 기울일 수 있습니다. 물론 정당한 선거 승자가 누구인지 의심하게 만드는 데 정교한 기술이 필요한 것은 아니지만 AI가 이를 더 쉽게 만들어줄 것입니다.
유명 정치인의 영상을 조작한 가짜 동영상이 이미 존재합니다 . 주요 선거 당일 아침, 후보자 중 한 명이 은행을 털고 있는 모습을 담은 동영상이 입소문을 타고 퍼졌다고 상상해 보세요. 그것은 가짜이지만 뉴스 매체와 캠페인이 그것을 증명하는 데 몇 시간이 걸립니다. 얼마나 많은 사람들이 그것을 보고 마지막 순간에 투표를 바꿀 것인가? 특히 가까운 선거에서는 규모가 바뀔 수 있습니다.
OpenAI 공동 창립자인 Sam Altman이 최근 미국 상원 위원회에서 증언했을 때 양당의 상원의원들은 AI가 선거와 민주주의에 미치는 영향에 초점을 맞췄습니다. 이 주제가 모든 사람의 의제로 계속해서 다루어지기를 바랍니다.
우리는 확실히 잘못된 정보와 딥페이크 문제를 해결하지 못했습니다. 그러나 두 가지가 나를 조심스럽게 낙관적으로 만듭니다. 하나는 사람들이 모든 것을 액면 그대로 받아들이지 않는 법을 배울 수 있다는 것입니다. 수년 동안 이메일 사용자들은 나이지리아 왕자로 가장한 누군가가 귀하의 신용 카드 번호를 공유하는 대가로 큰 보상을 약속하는 사기에 속했습니다. 그러나 결국 대부분의 사람들은 그 이메일을 두 번 보는 법을 배웠습니다. 사기가 더욱 정교해짐에 따라 많은 표적도 교묘해졌습니다. 우리는 딥페이크를 위해 동일한 근육을 키워야 합니다.
저를 희망적으로 만드는 또 다른 점은 AI가 딥페이크를 식별하고 생성하는 데 도움을 줄 수 있다는 것입니다. 예를 들어 인텔은 딥페이크 탐지기를 개발했으며 , 정부 기관인 DARPA는 비디오나 오디오가 조작되었는지 식별하는 기술을 연구하고 있습니다.
이는 순환적인 과정이 될 것입니다. 누군가는 가짜를 탐지하는 방법을 찾고, 다른 누군가는 이에 대응하는 방법을 찾아내고, 다른 누군가는 대응책을 개발하는 등의 과정이 계속됩니다. 완벽한 성공은 아닐지라도, 우리 역시 무기력하지는 않을 것입니다.
AI를 사용하면 사람과 정부에 대한 공격을 더 쉽게 시작할 수 있습니다.
오늘날 해커는 소프트웨어에서 악용 가능한 결함을 찾으려고 할 때 길을 찾을 때까지 잠재적인 약점을 공격하는 코드를 작성하여 무차별 대입 방식으로 이를 수행합니다. 여기에는 많은 막다른 골목을 통과해야 하므로 시간이 걸리고 인내심.
해커에 맞서고 싶은 보안 전문가도 같은 일을 해야 한다. 휴대폰이나 노트북에 설치하는 모든 소프트웨어 패치는 좋은 의도와 나쁜 의도를 가진 사람들이 수 시간 동안 검색한 결과입니다.
AI 모델은 해커가 보다 효과적인 코드를 작성할 수 있도록 지원하여 이 프로세스를 가속화합니다. 또한 그들은 직장이나 친구 등 개인에 대한 공개 정보를 사용하여 오늘날 우리가 볼 수 있는 것보다 더 발전된 피싱 공격을 개발할 수 있습니다.
좋은 소식은 AI가 좋은 목적뿐만 아니라 나쁜 목적으로도 사용될 수 있다는 것입니다. 정부 및 민간 부문 보안 팀은 범죄자가 보안 결함을 악용하기 전에 보안 결함을 찾아 수정하기 위한 최신 도구를 보유해야 합니다. 나는 소프트웨어 보안 업계가 이 분야에서 이미 수행하고 있는 작업을 확장하기를 바랍니다. 이는 그들에게 가장 큰 관심사가 될 것입니다.
이것이 또한 일부 사람들이 제안한 것처럼 사람들이 AI의 새로운 개발을 구현하는 것을 일시적으로 방해해서는 안 되는 이유이기도 합니다. 사이버 범죄자들은 새로운 도구를 만드는 것을 멈추지 않을 것입니다. AI를 사용하여 핵무기와 생물 테러 공격을 설계하려는 사람들도 마찬가지입니다. 그들을 막기 위한 노력은 같은 속도로 계속되어야 합니다.
글로벌 수준에는 관련된 위험이 있습니다. 즉, 다른 국가에 대한 사이버 공격을 설계하고 실행하는 데 사용할 수 있는 AI 군비 경쟁입니다. 모든 정부는 적의 공격을 저지할 수 있는 가장 강력한 기술을 원합니다. 누구도 앞서지 못하게 하는 이러한 인센티브는 점점 더 위험한 사이버 무기를 만들기 위한 경쟁을 촉발할 수 있습니다. 모두의 상황이 더 나빠질 것입니다.
무서운 생각이지만 우리에게는 우리를 인도할 역사가 있습니다. 비록 세계의 핵 비확산 체제가 결점을 갖고 있기는 하지만, 우리 세대가 자라면서 그토록 두려워했던 전면적인 핵전쟁을 막아냈습니다. 정부는 국제원자력기구(IAEA) 와 유사한 AI를 위한 글로벌 기구 창설을 고려해야 한다 .
AI는 사람들의 일자리를 앗아갈 것이다.
향후 몇 년 동안 AI가 업무에 미치는 주요 영향은 사람들이 업무를 보다 효율적으로 수행하도록 돕는 것입니다. 이는 그들이 공장에서 일하든, 판매 통화 및 지급 계정을 처리하는 사무실에서 일하든 마찬가지입니다. 결국 AI는 이메일을 작성하고 받은편지함을 관리할 수 있다는 아이디어를 표현하는 데 충분히 능숙해질 것입니다. 일반 영어 또는 기타 언어로 요청을 작성하고 작업에 대한 풍부한 프레젠테이션을 생성할 수 있습니다.
2월 게시물에서 제가 주장한 것처럼 생산성이 높아지면 사회에 좋습니다. 이는 사람들에게 직장이나 집에서 다른 일을 할 수 있는 더 많은 시간을 제공합니다. 그리고 가르치고, 환자를 돌보고, 노인을 지원하는 등 다른 사람을 돕는 사람들에 대한 수요는 결코 사라지지 않을 것입니다. 그러나 AI 기반 업무 공간으로 전환하는 과정에서 일부 근로자에게 지원과 재교육이 필요한 것은 사실입니다. 이는 정부와 기업의 역할이며, 미국의 제조업 일자리가 감소하는 동안 발생한 사람들의 삶에 대한 혼란을 피하기 위해 근로자가 뒤쳐지지 않도록 이를 잘 관리해야 합니다.
또한 새로운 기술이 노동 시장에 큰 변화를 가져온 것은 이번이 처음이 아니라는 점을 명심하십시오. AI의 영향력이 산업혁명만큼 극적일 것이라고는 생각하지 않지만, PC의 도입만큼은 분명 클 것입니다. 워드 프로세싱 응용 프로그램은 사무 업무를 완전히 없애지는 못했지만 사무 업무를 완전히 바꿔 놓았습니다. 고용주와 직원은 적응해야 했고 실제로 그렇게 했습니다. AI로 인한 변화는 험난한 전환이 되겠지만, 사람들의 삶과 생계에 대한 혼란을 줄일 수 있다고 생각할 충분한 이유가 있습니다.
AI는 우리의 편견을 물려받아 상황을 만들어냅니다.
환각(AI가 단순히 사실이 아닌 주장을 자신 있게 내는 경우를 가리키는 용어)은 일반적으로 기계가 요청의 맥락을 이해하지 못하기 때문에 발생합니다. AI에게 달 여행에 대한 짧은 이야기를 써달라고 요청하면 매우 상상력이 풍부한 답변을 얻을 수 있습니다. 하지만 탄자니아 여행 계획을 세우는 데 도움을 달라고 요청하면 존재하지 않는 호텔로 보내려고 할 수도 있습니다.
인공 지능의 또 다른 위험은 특정 성 정체성, 인종, 민족 등에 대한 기존 편견을 반영하거나 심지어 악화시킨다는 것입니다.
환각과 편견이 발생하는 이유를 이해하려면 오늘날 가장 일반적인 AI 모델이 어떻게 작동하는지 아는 것이 중요합니다. 이는 본질적으로 이메일 앱이 사용자가 다음에 입력할 단어를 예측할 수 있도록 하는 매우 정교한 코드 버전입니다. 어떤 경우에는 온라인에서 사용할 수 있는 거의 모든 텍스트를 스캔하고 분석하여 패턴을 찾습니다. 인간의 언어.
AI에 질문을 하면 AI는 사용자가 사용한 단어를 살펴본 다음 해당 단어와 자주 연관되는 텍스트 덩어리를 검색합니다. "팬케이크 재료 목록"이라고 쓰면 해당 문구와 함께 "밀가루, 설탕, 소금, 베이킹 파우더, 우유, 계란"이라는 단어가 자주 나타나는 것을 볼 수 있습니다. 그런 다음 해당 단어가 일반적으로 나타나는 순서에 대해 알고 있는 내용을 기반으로 답변을 생성합니다. (이런 방식으로 작동하는 AI 모델은 트랜스포머라는 것을 사용합니다. GPT-4가 그러한 모델 중 하나입니다.)
이 프로세스는 AI가 환각을 경험하거나 편향된 것처럼 보일 수 있는 이유를 설명합니다. 당신이 묻는 질문이나 당신이 말하는 내용에 대한 맥락이 없습니다. 실수가 있었다고 말하면 "죄송합니다. 잘못 입력했습니다."라고 말할 수 있습니다. 하지만 그것은 환각입니다. 아무 것도 입력하지 않았습니다. 단지 "죄송합니다. 잘못 입력했습니다"라는 문장이 누군가가 수정한 후에 자주 쓰는 문장이라는 것을 알 수 있을 만큼 충분한 텍스트를 스캔했기 때문일 뿐입니다.
마찬가지로 AI 모델은 훈련된 텍스트에 포함된 편견을 상속받습니다. 예를 들어 의사에 대한 내용을 많이 읽고 그 텍스트에 대부분 남성 의사가 언급되어 있다면 그 대답은 대부분의 의사가 남성이라고 가정할 것입니다.
일부 연구자들은 환각이 본질적인 문제라고 생각하지만 나는 동의하지 않습니다. 나는 시간이 지남에 따라 AI 모델이 사실과 허구를 구별하도록 학습될 수 있다고 낙관합니다. 예를 들어 OpenAI는 이 분야에서 유망한 작업을 수행하고 있습니다.
Alan Turing Institute 및 National Institute of Standards and Technology를 포함한 다른 조직에서는 편견 문제를 해결하기 위해 노력하고 있습니다. 한 가지 접근 방식은 인간의 가치와 더 높은 수준의 추론을 AI에 구축하는 것입니다. 이는 자기 인식이 있는 인간이 일하는 방식과 유사합니다. 아마도 당신은 대부분의 의사가 남자라고 가정할 수도 있지만, 의도적으로 맞서 싸워야 한다는 것을 알 만큼 이 가정을 충분히 의식하고 있습니다. AI는 특히 다양한 배경을 가진 사람들이 모델을 디자인한 경우 비슷한 방식으로 작동할 수 있습니다.
마지막으로, AI를 사용하는 모든 사람은 편견 문제를 인식하고 정보를 갖춘 사용자가 되어야 합니다. AI에게 초안을 작성하도록 요청한 에세이는 사실적 오류만큼이나 편견으로 가득 차 있을 수 있습니다. AI의 편견과 자신의 편견을 확인해야 합니다.
AI가 대신 일을 해주기 때문에 학생들은 글쓰기를 배우지 못할 것입니다.
많은 교사들은 AI가 학생들과의 업무를 훼손하는 방식에 대해 걱정하고 있습니다. 인터넷 접속이 가능한 사람이라면 누구나 AI를 사용하여 훌륭한 에세이 초안을 작성할 수 있는 시대에 학생들이 이를 자신의 작품으로 제출하지 못하게 하려면 어떻게 해야 할까요?
사람이 쓴 것인지 컴퓨터가 쓴 것인지 구분하는 방법을 학습하는 AI 도구가 이미 있으므로 교사는 학생이 스스로 작업을 하지 않는 경우 이를 알 수 있습니다. 그러나 일부 교사는 학생들이 글쓰기에 AI를 사용하는 것을 막으려는 것이 아니라 실제로 AI를 장려하고 있습니다.
지난 1월, Cherie Shields라는 베테랑 영어 교사는 Education Week 에 자신의 교실에서 ChatGPT를 사용하는 방법에 대한 기사를 썼습니다. 이는 학생들이 에세이 시작부터 개요 작성, 심지어 작업에 대한 피드백 제공까지 모든 과정에서 도움을 주었습니다.
“교사들은 AI 기술을 학생들이 이용할 수 있는 또 다른 도구로 받아들여야 할 것입니다.”라고 그녀는 썼습니다. “학생들에게 올바른 Google 검색 방법을 가르쳤던 것처럼 교사는 ChatGPT 봇이 에세이 작성을 어떻게 지원할 수 있는지에 대한 명확한 강의를 설계해야 합니다. AI의 존재를 인정하고 학생들이 AI를 활용하도록 돕는 것은 우리가 가르치는 방식에 혁명을 일으킬 수 있습니다.” 모든 교사가 새로운 도구를 배우고 사용할 시간이 있는 것은 아니지만 Cherie Shields와 같은 교육자들은 그렇게 하는 사람들이 많은 혜택을 누릴 것이라고 주장합니다.
1970~80년대 전자계산기가 보편화되던 시절이 생각난다. 일부 수학 교사는 학생들이 기본적인 산수를 배우는 것을 중단할 것이라고 걱정했지만, 다른 수학 교사들은 새로운 기술을 받아들이고 산술 이면의 사고력에 중점을 두었습니다.
AI가 글쓰기와 비판적 사고에 도움을 줄 수 있는 또 다른 방법이 있습니다. 특히 환각과 편견이 여전히 문제가 되는 초기 단계에 교육자들은 AI가 기사를 생성하도록 한 다음 학생들과 협력하여 사실을 확인할 수 있습니다. 제가 자금을 지원하는 Khan Academy 및 OER 프로젝트 와 같은 교육 비영리 단체 에서는 교사와 학생에게 주장 테스트에 중점을 두는 무료 온라인 도구를 제공합니다. 무엇이 진실인지 거짓인지 구별하는 방법을 아는 것보다 더 중요한 기술은 없습니다.
우리는 교육 소프트웨어가 성취도 격차를 악화시키는 것이 아니라 이를 줄이는 데 도움이 되도록 해야 합니다. 오늘날의 소프트웨어는 대부분 이미 동기가 부여된 학생들의 역량을 강화하는 데 맞춰져 있습니다. 귀하를 위한 학습 계획을 개발하고, 좋은 자료를 안내하고, 지식을 테스트할 수 있습니다. 하지만 아직 관심이 없는 주제로 사용자를 끌어들이는 방법은 아직 모릅니다. 이는 모든 유형의 학생들이 AI의 혜택을 누릴 수 있도록 개발자가 해결해야 할 문제입니다.
무엇 향후 계획?
저는 AI의 이점을 극대화하면서 AI의 위험을 관리할 수 있다고 낙관하지 않는 것보다 더 많은 이유가 있다고 생각합니다. 하지만 우리는 빨리 움직여야 합니다.
정부는 인공 지능에 대한 전문 지식을 구축하여 이 신기술에 대응하는 정보에 입각한 법률과 규정을 만들 수 있어야 합니다. 그들은 잘못된 정보와 딥페이크, 보안 위협, 취업 시장의 변화, 교육에 미치는 영향과 씨름해야 합니다. 한 가지 예를 들자면, 딥페이크의 어떤 사용이 합법인지, 딥페이크에 라벨을 어떻게 표시해야 하는지에 대해 법에서 명확하게 밝혀야 합니다. 그래야 모든 사람이 보거나 듣는 것이 진짜가 아닐 때 이해할 수 있습니다.
정치 지도자들은 유권자들과 정보를 바탕으로 사려 깊은 대화를 나눌 수 있는 역량을 갖추어야 합니다. 또한 이러한 문제에 관해 다른 국가와 얼마나 협력할 것인지, 아니면 단독으로 진행할 것인지 결정해야 합니다.
민간 부문에서 AI 기업은 안전하고 책임감 있게 업무를 수행해야 합니다. 여기에는 개인 정보 보호, AI 모델이 인간의 기본 가치를 반영하는지 확인, 편견 최소화, 최대한 많은 사람들에게 혜택 확산, 범죄자나 테러리스트가 기술을 사용하는 것을 방지하는 것이 포함됩니다. 경제의 여러 부문에 속한 기업은 누구도 뒤쳐지지 않도록 직원들이 AI 중심 업무 공간으로 전환하도록 도와야 합니다. 그리고 고객은 언제 인간이 아닌 AI와 상호 작용하는지 항상 알아야 합니다.
마지막으로, 저는 모든 사람이 가능한 한 AI의 발전을 따르도록 권장합니다. 이는 우리 모두가 일생 동안 보게 될 가장 혁신적인 혁신이며 건전한 공개 토론은 모든 사람이 기술, 그 이점 및 위험에 대해 잘 알고 있는지에 달려 있습니다. 그 혜택은 엄청날 것이며, 우리가 위험을 관리할 수 있다고 믿을 수 있는 가장 좋은 이유는 우리가 이전에 그렇게 해왔기 때문입니다.
|