ChatGPT: 똑똑하거나 멍청하거나 완전히 위험한가요?
https://www.swissinfo.ch/eng/chatgpt--intelligent--stupid-or-downright-dangerous-/48430010
ChatGPT: 똑똑하거나 멍청하거나 완전히 위험한가요?
ChatGPT는 "나와 이야기하는 데 나이 제한은 없습니다."라고 물으면 말합니다. 어린이(및 성인)는 여전히 모든 내용을 복음으로 받아들여서는 안 됩니다. 저작권 2023 AP 통신. 판권 소유.
그것은 모든 것에 대한 답을 가지고 있으며 책처럼 이야기합니다. OpenAI의 챗봇 ChatGPT외부 링크, 인공 지능(AI)의 새로운 시대의 포스터 차일드입니다. 그러나 그것은 인간의 뇌와는 거리가 멀고 이를 규제할 법적인 틀도 없다고 전문가들은 말한다.
이 콘텐츠는 2023년 4월 14일에 게시되었습니다.2023년 4월 14일11분
마크 앙드레 미제레즈
기타 언어: 7
아직도 ChatGPT에 대해 들어보지 못한 사람이 있습니까? 4개월 전에 시작된 이후로 스위스에서만 인쇄 매체가 하루 평균 10개의 기사를 제공했습니다(뉴스 수집 사이트 smd.ch에서 추적). 라디오, 텔레비전, 뉴스 웹사이트 및 소셜 미디어에 추가하면 한 푼도 지불하지 않고 출시에 대한 홍보를 받은 제품은 거의 없습니다.
처음에는 찬사를 받았지만 정보의 신뢰성뿐만 아니라 사용자 데이터의 보안과 관련하여 기계가 함정과 위험을 드러내면서 곧 불안감이 대두되었습니다.
3월 29일부터 수천 명의 기술 전문가들이 기업과 정부에 전화를 걸었 습니다.외부 링크"인류에 대한 주요 위험"을 지적하면서 6개월 동안 AI 개발을 중단합니다. 그들 중 한 명이 애플의 공동 창업자인 스티브 워즈니악이었습니다. 다른 하나는 ChatGPT를 개발해 온 회사인 OpenAI의 주요 투자자 중 한 명인 Elon Musk였습니다.
3일 후 이탈리아 국가 데이터 보호 당국은 장치에 대한 액세스를 차단하기로 결정했습니다. 이 기관은 법적 근거 없이 알고리즘에 대한 교육 입력으로 정보를 수집하고 저장하는 ChatGPT를 비판합니다. 이 기관은 OpenAI에 이 상황을 처리하기 위해 조치를 취한 후 20일 이내에 통지할 것을 요청했으며 그렇지 않으면 최대 2천만 유로(CHF1970만)의 벌금에 처하게 됩니다.
외부 콘텐츠
El Mahdi El Mhamdi는 AI에 대한 법적 프레임워크의 부족을 비판하는 사람들 중 한 명입니다. 그는 현재 Paris Polytechnique의 수학과 데이터 과학 교수이지만, Rachid Guerraoui의 지도 아래 스위스 로잔 공과대학(EPFL)에서 박사 학위를 받았습니다. 이 두 이름은 이 문서의 뒷부분에서 다시 나타납니다.
챗봇이 그렇게 위험한가요? Siri, Cortana, OK Google 및 기타 합성 음성과의 상호 작용에서 이미 익숙한 미니멀한 인터페이스와 흔들리지 않는 공손함으로 그런 인상을 주지 않습니다.
문제가 무엇인지 파악하려면 이 기계가 무엇인지, 더 나아가 무엇이 아닌지 이해해야 합니다.
전자두뇌가 아니다
질문을 하면 ChatGPT는 그것이 무엇인지 비밀로 하지 않습니다. "컴퓨터 프로그램으로서 나는 인간의 두뇌와 매우 다릅니다."라고 말합니다. 그런 다음 인간보다 더 빠르게 엄청난 양의 데이터를 처리할 수 있고 기억력은 절대 잊지 않지만 감성 지능, 자기 인식, 영감, 창의적 사고 또는 독립적인 의사 결정 능력이 부족하다고 설명합니다.
의견
AI는 (민주적) 통제를 벗어났습니다.
이 콘텐츠는 2023년 4월 14일에 게시되었습니다.2023년 4월 14일 Lê Nguyên Hoang은 인공 지능(AI) 거버넌스 시스템을 설정하기 위해 더 많은 관심, 직원 및 자금이 절실히 필요하다고 말합니다.
AI의 아키텍처 는 스마트폰에 앞서 1990년대 개인 비서인 Palm의 창시자 중 한 명인 미국 컴퓨터 과학자 Jeff Hawkins의 최근 저서 A Thousand Brains 에서 설명한 것처럼 AI의 아키텍처는 뇌와 실제로 아무 관련이 없습니다. . 현재 신경과학 분야에서 일하고 있는 Hawkins는 AI 회사인 Numenta를 이끌고 있습니다.
그의 책의 핵심 아이디어 중 하나는 뇌가 우리가 알고 있는 모든 것에 대한 수억 개의 "지도"인 참조를 생성한다는 것입니다. 우리의 감각 입력에 따라 계속 조정합니다. AI는 눈이나 귀가 없으며 입력된 정보에 의존하며, 이는 동일하게 유지되고 진화하지 않습니다.
고양이는 무엇입니까?
Hawkins는 그가 의미하는 바에 대한 간단한 예를 제공합니다. 사진에 라벨을 붙이는 AI 로봇은 고양이를 알아볼 수 있습니다. 하지만 고양이는 이것이 동물인지, 발과 꼬리가 있는지, 일부 인간이 개보다 고양이를 선호하는지, 고양이가 가르랑거리거나 털을 흩뿌린다는 사실을 모릅니다. 즉, 이 기계는 다섯 살짜리가 고양이에 대해 아는 것보다 적습니다.
의견
정부와 기업은 AI 경쟁을 멈추지 않을 것입니다.
이 콘텐츠는 2023년 4월 14일에 게시되었습니다.2023년 4월 14일 인공 지능 연구자들은 "거대한 AI 실험"을 중단할 것을 요구하고 있지만, 그런 일은 일어나지 않을 것이라고 AI 연구원 Jürgen Schmidhuber는 주장합니다.
왜? 5세 아이가 고양이를 보고 쓰다듬어 주고 가르랑거리는 소리를 들었기 때문에 이 모든 정보는 아이의 뇌에 저장된 고양이에 대한 "지도"의 일부입니다. ChatGPT와 같은 대화형 로봇은 단어 집합과 함께 발생할 확률만 알고 있습니다.
오늘날 발전하고 있는 AI의 한계는 70년 전 컴퓨팅 기계에 대한 모든 아이디어를 창안한 수학적 천재인 Alan Turing에 의해 예견되었습니다. 1950년에 "계산 기계와 지능"이라는 기사에서 튜링은 생각할 수 있는 기계를 만들기 위해서는 대량의 데이터에서 추론하도록 프로그래밍하는 것만으로는 충분하지 않다는 것을 알았습니다. 그것은 또한 귀납으로부터 추론할 필요가 있을 것입니다. 즉, 특정한 경우로부터 일반화를 만드는 것입니다. AI는 아직 그렇게 할 수 없습니다.
소스가 무엇입니까?
Rachid Guerraoui는 EPFL의 분산 컴퓨팅 연구실을 이끌고 있습니다. 유튜브 채널 'Science4All'을 제작하는 동료 Lê Nguyên Hoang과 함께 그는 2020년 Turing à la plage (Turing on the beach)라는 책을 출간했습니다. 출판사는 이 책이 "컴퓨터를 다르게 보게 만들 것"이라고 약속했습니다.
Guerraoui에게 ChatGPT의 주요 위험 중 하나는 말하는 내용을 너무 많이 신뢰하는 것입니다. “대부분의 경우 그것이 말하는 것은 사실이거나 적어도 그것이 사실처럼 들릴 정도로 잘 쓰여졌습니다. 그러나 그것은 정기적으로 큰 실수를 합니다. 따라서 맹목적으로 신뢰하는 것은 의미가 없습니다.” 그러나 모든 사람이 기계가 말하는 내용에 의문을 제기할 수 있는 비판적 사고 기술을 가지고 있는 것은 아닙니다. 특히 문법과 철자가 매우 명확하게 설명되어 있을 때 그렇습니다.
스위스, 필립 라킨
"제가 보기에 또 다른 위험은 사람들이 책임을 회피하게 한다는 것입니다."라고 그는 말합니다. “기업에서도 사용하게 될 것입니다. 그러나 출처는 무엇이며 정보가 잘못되었거나 나중에 문제가 발생하면 누가 책임을 져야 합니까? 전혀 명확하지 않습니다.”
Guerraoui는 자주 듣는 것처럼 AI가 언론인, 작가 및 교사를 대체할 것으로 예상합니까? 아직은 아니지만 “일부 직업은 바뀔 것입니다. 학자나 언론인은 사실을 확인하고 출처를 확인하는 데 더 몰두할 것입니다. 왜냐하면 기계는 대부분의 경우에만 사실인 그럴듯하게 들리는 텍스트를 생성할 것이기 때문입니다. 그것이 말하는 모든 것은 확인되어야 할 것입니다.”
규제가 시급하다
El Mahdi El Mhamdi는 “현재 AI의 가장 큰 과제는 성능이 아니라 거버넌스, 규제 및 신뢰성입니다.
2019년에 그는 또한 Lê Nguyên Hoang과 함께 "추천 알고리즘"이라고 불리는 것의 위험성을 다루는 책인 Le fabuleux chantier (The fancy workshop)를 출판했습니다. 이들은 소셜 미디어에서 기존 프로필을 기반으로 특정 사용자가 관심을 가질 만한 콘텐츠를 표시하는 데 사용됩니다. El Mhamdi는 이러한 알고리즘이 "우리 사회의 정보 혼란"에 미치는 영향을 비판하기 위해 ChatGPT의 출현을 기다릴 필요가 없었습니다.
더
토론에 참여
과학
사라 이브라힘
AI가 우리를 돕거나 해칠까요?
컴퓨터는 인간 지능이 필요한 작업을 수행하고 우리의 결정에 영향을 미칠 수 있음을 입증하고 있습니다. 우리가 그들을 내버려 두어야 합니까?
60
45
"내 생각에 ChatGPT는 과대평가되었을 뿐만 아니라 무책임하고 위험한 방식으로 너무 빨리 배포되고 있습니다."라고 그는 말합니다. "동료 중 일부가 이 도구에 대해 무비판적으로 찬사하는 것을 보면 우리가 같은 행성에 살고 있는 것이 아닌가 하는 생각이 듭니다." 그는 캠브리지 애널리티카 데이터 수집 스캔들과 휴대폰에 은밀하게 로드될 수 있는 페가수스 같은 스파이 소프트웨어의 확산을 회상합니다.
El Mhamdi는 ChatGPT가 유용한 작업 도구가 될 수 있다는 점을 인정하지만, ChatGPT의 기반이 되는 과학은 "지난 10년 동안 수천 명의 연구원이 작업한 결과이며, 윤리적으로는 말할 것도 없고 엄청난 엔지니어링 자원입니다. 케냐의 저임금 노동자 군대의 의심스러운 노동”(아래 상자 참조).
궁극적으로 그는 "OpenAI의 진정한 천재성은 ChatGPT 이면의 과학이 아니라 이런 종류의 가제트에 이미 열광하는 사용자에게 위임된 마케팅에 있습니다."라고 생각합니다. 사용자는 그렇습니다. 하지만 미디어도 이 기사의 시작점으로 돌아가야 합니다. 모두가 ChatGPT에 대해 이야기하고 있지만 실제로 광고를 본 적이 있습니까?
AI의 어두운 면
사브리나 와이즈에 의해 수정됨. Terence MacNamee/ts가 프랑스어에서 번역함