AI 인공지능 전문가들은 '인공지능 AI의 멸종' 위험을 전염병, 핵전쟁과 비교하는 문서에 서명합니다.
출처 cointelegraph 저자 트리스탄 그린 소스:EK 이페어케이 플러스
"AI의 대부"와 OpenAI, Google, DeepMind 및 Anthropic의 CEO는 수백 개의 서명자 중 하나입니다
오픈AI(OpenAI), 구글 딥마인드(Google DeepMind), 앤트로픽(Anthropic)의 CEO를 비롯한 수십 명의 인공지능(AI) 전문가들이 최근 AI 안전 센터(CAIS)가 발표한 공개 성명서에 서명했다.
스레드
Dan Hendrycks
@DanHendrycks
We just put out a statement: “Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.” Signatories include Hinton, Bengio, Altman, Hassabis, Song, etc. https://safe.ai/statement-on-ai-risk…
(1/6)
방금 다음과 같은 성명을 발표했습니다. "AI로 인한 멸종 위험을 완화하는 것은 전염병 및 핵전쟁과 같은 다른 사회적 규모의 위험과 함께 전 세계적으로 우선 순위가 되어야 합니다." 서명자에는 Hinton, Bengio, Altman, Hassabis, Song 등이 포함됩니다. https://safe.ai/statement-on-ai-risk…
(1/6)
safe.ai
Statement on AI Risk | CAIS
A statement jointly signed by a historic coalition of experts: “Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and...
오후 6:17 · 2023년 5월 30일
·
59.3만
조회수
명령문에는 한 문장이 포함되어 있습니다.
"AI로 인한 멸종 위험을 완화하는 것은 전염병 및 핵전쟁과 같은 다른 사회적 규모의 위험과 함께 세계적인 우선 순위가 되어야 합니다."
이 문서의 서명자 중에는 AI의 "대부"인 Geoffrey Hinton을 포함하여 AI 유명인의 진정한 "누가 누구인가"가 있습니다. 캘리포니아 대학교 버클리의 스튜어트 러셀; 매사추세츠 공과 대학 (Massachusetts Institute of Technology)의 렉스 프리드먼 (Lex Fridman)이 있습니다.
뮤지션 그라임스(Grimes)도 "기타 주목할만한 인물" 범주에 등재된 서명자입니다.
이 진술은 표면적으로는 무해한 것처럼 보일 수 있지만 기본 메시지는 AI 커뮤니티에서 다소 논란의 여지가 있는 메시지입니다.
겉보기에 점점 더 많은 전문가들이 현재 기술이 필연적으로 인간 종에 실존 적 위협을 가할 수있는 AI 시스템의 출현 또는 개발로 이어질 수 있다고 믿습니다.
그러나 그들의 견해는 정반대의 의견을 가진 전문가들에 의해 반박된다. 예를 들어, 메타의 수석 AI 과학자 얀 르쿤(Yann LeCun)은 AI가 통제할 수 없게 될 것이라고 반드시 믿지 않는다고 여러 차례 언급했습니다.
트윗
Yann LeCun
@ylecun
Super-human AI is nowhere near the top of the list of existential risks. In large part because it doesn't exist yet. Until we have a basic design for even dog-level AI (let alone human level), discussing how to make it safe is premature.
초인적 AI는 실존적 위험 목록의 최상위에 근접하지 않습니다. 대부분 아직 존재하지 않기 때문입니다. 개 수준의 AI (인간 수준은 물론)에 대한 기본 설계가 있을 때까지 이를 안전하게 만드는 방법에 대해 논의하는 것은 시기상조입니다.
트윗 인용하기
Andrew Ng
@AndrewYNg
·
7시간
When I think of existential risks to large parts of humanity: * The next pandemic * Climate change→massive depopulation * Another asteroid AI will be a key part of our solution. So if you want humanity to survive & thrive the next 1000 years, lets make AI go faster, not slower.
오전 3:39 · 2023년 5월 31일
·
24.5만
조회수
그와 구글 브레인 (Google Brain)의 공동 창립자이자 바이두 (Baidu)의 전 수석 과학자 인 앤드류 응 (Andrew Ng)과 같은 "멸종"수사학에 동의하지 않는 다른 사람들에게 AI는 문제가 아니라 답입니다.
논쟁의 반대편에서 Hinton과 Conjecture의 CEO 인 Connor Leahy와 같은 전문가들은 인간 수준의 AI가 불가피하다고 믿으며, 따라서 행동 할 때가 지금이라고 생각합니다.
스레드
Connor Leahy
@NPCollapse
Heads of all major AI labs signed this letter explicitly acknowledging the risk of extinction from AGI. An incredible step forward, congratulations to Dan for his incredible work putting this together and thank you to every signatory for doing their part for a better future!
모든 주요 AI 연구실의 수장은 AGI로 인한 멸종 위험을 명시적으로 인정하는 이 서한에 서명했습니다. 놀라운 발전을 이룬 Dan에게 축하의 말을 전하고 더 나은 미래를 위해 자신의 몫을 다해 준 모든 서명자에게 감사드립니다!
트윗 인용하기
Dan Hendrycks
@DanHendrycks
·
14시간
We just put out a statement: “Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.” Signatories include Hinton, Bengio, Altman, Hassabis, Song, etc. https://safe.ai/statement-on-ai-risk…
(1/6)
이 스레드 보기
오후 6:32 · 2023년 5월 30일
·
4만
조회수
그러나 성명서의 서명국들이 어떤 조치를 요구하고 있는지는 불분명하다. 거의 모든 주요 AI 회사의 CEO 및/또는 AI 책임자와 학계의 저명한 과학자들이 서명한 사람들 중 하나이며, 이는 잠재적으로 위험한 시스템의 개발을 중단하려는 의도가 아님을 분명히 합니다.
이달 초, 위에서 언급한 성명서의 서명자 중 한 명인 OpenAI CEO Sam Altman은 AI 규제를 논의하기 위해 상원 청문회에서 의회에 처음 출석했습니다. 그의 증언은 국회의원들에게 자신의 산업을 규제할 것을 촉구하는 데 대부분의 시간을 보낸 후 헤드라인을 장식했습니다.
암호화폐와 인격 증명을 결합한 프로젝트인 알트만의 월드코인(Worldcoin)도 최근 시리즈 C 펀딩에서 115억 240,<>만 달러를 모금한 후 언론에 공개되어 <>라운드 후 총 펀딩이 <>억 <>,<>만 달러로 늘어났습니다.
저자
트리스탄 그린 Tristan은 기술의 인간적인 면을 깊이 파고드는 것을 즐기는 미래학자입니다. 그는 2017년에 암호화폐와 블록체인 기술에 대한 글을 쓰기 시작했으며 현재 AI와 메타버스에 매료되어 있습니다. 글을 쓰고 연구하는 것 외에도 그는 아내와 함께 게임을 하고 군사 역사를 공부하는 것을 즐깁니다.