AI가 인류 멸망 초래할 듯 전문가·테크 기업 총수 경고 / 5/31(수) / BBC News
크리스 발란스, 테크놀로지 기자
인공지능(AI)이 인류 멸망을 초래할 수 있다고 전문가들이 경고하고 나섰다.
웹사이트 센터 오브 AI 세이프티에 게재된 AI 위험에 대한 성명문에는 채팅 GPT를 개발한 오픈AI 샘 알트먼 최고경영자(CEO), 구글 딥마인드 데미스 허서비스 CEO, 언솔로픽 다리오 아모데이 CEO 등 기술 기업 총수들도 서명했다.
성명은 팬데믹이나 핵전쟁 같은 사회적 규모의 리스크와 마찬가지로 AI에 의한 멸종 위험을 줄이는 것을 세계적인 우선사항으로 삼아야 한다고 촉구했다.
반면 이 같은 우려는 과장됐다는 의견도 있다.
「센터·오브·AI 세이프티」는, 몇가지 참사 시나리오를 상정하고 있다.
・AI 무기화 : 신약개발 도구가 화학무기 제조에 사용될 가능성이 높다. ・AI로 생성된 가짜 정보가 사회를 불안정하게 만들고 '집단 의사결정에 해를 끼칠' 가능성 ・AI의 힘이 보다 소수의 사람에게 집중되어 국가가 '감시와 억압적 검열을 통해 좁은 가치관을 강제'할 수 있게 될 가능성 ・영화 '월리'에 그려진 시나리오처럼, 인류가 AI에 의지해 쇠퇴할 가능성
인간을 초월한 지능을 가진 슈퍼인텔리전스(초지능) AI로 인한 위험을 오래전부터 지적해 온 제프리 힌튼 박사와 몬트리올대 요슈아 벤지오 교수(컴퓨터과학)도 이 성명을 지지하고 있다.
힌튼 박사와 벤지오 교수, 그리고 미국 뉴욕대 얀 루칸 교수는 이 영역의 선구자로 AI의 아버지로 불린다. 2018년에는 컴퓨터 사이언스에 눈부신 기여를 한 사람에게 주어지는 튜링상을 수상한 바 있다.
그러나 페이스북이나 인스타그램을 운영하는 메타에도 소속된 루칸 교수는 이 같은 세상의 종말 같은 경고는 지나치게 과장됐다며 「이런 예언에 대한 AI 연구자들의 가장 일반적인 반응은, 맙소사 손으로 얼굴을 가리는 것」이라고 트윗했다.
■ "현실 분열시킨다"
많은 전문가들이 AI가 인류를 망칠 것이라는 우려는 비현실적이며 시스템상의 편향 등 이미 있는 문제에서 눈을 돌리는 것이라고 말한다.
미국 프린스턴대의 어빈드 나라야난 씨는 이전 BBC 인터뷰에서 사이언스픽션(SF) 같은 참사가 일어나는 시나리오는 비현실적이라고 말한 바 있다.
「현재 AI의 능력은, 이러한 리스크를 실현하기에는 거리가 멀다. 결과적으로 단기 AI로 인한 피해에서 관심을 돌리고 있다.」
영국 옥스퍼드대 AI윤리연구소 엘리자베스 레니에리스도 좀 더 현재에 가까운 리스크가 걱정된다고 말했다.
「AI의 진보로 인해 편향되고 차별적이며 배제적이거나 기타 불공정한 자동 의사결정의 규모가 확대되는 동시에 그러한 과정이 불가해하고 증명할 수 없게 될 것이다.」
레니에리스 씨는 또 AI가 가짜 정보의 양과 확산을 급가속시키고 그 결과 현실이 분열돼 공공의 신뢰가 깨질 것이다. 특히 디지털 분단으로 잘못된 쪽에 있는 사람들에 대한 불평등이 가속화될 것이라고 말했다.
레니에리스 씨에 의하면, 많은 AI 툴은 「지금까지의 인류의 경험」에 「무임승차」하고 있다. AI의 대부분은, 인간이 작성한 컨텐츠나 문장, 아트, 음악에 의해서 훈련되어 그것을 모방한다. 그 결과로서 AI의 제작자는 「막대한 부와 권력을 공공 장소에서 극소수의 사기업에 이양해 버렸다」.
그러나 댄 헨드릭스 센터 오브 AI 세이프티 소장은 BBC 뉴스에 「미래의 리스크와 현재의 우려를 상충하는 것으로 봐서는 안 된다」고 말했다.
오늘날 문제를 해결하는 것은 많은 미래의 위험을 해결하는 데도 도움이 된다.
■ 슈퍼인텔리전스 개발
전문가와 미국 테슬라의 일론 머스크 등 테크 기업 총수들은 지난 3월에도 차세대 AI 개발을 중단하라는 공개 서한을 발표한 바 있다.
이후 AI에 의한 '멸종' 위협에 관한 보도는 가속화되고 있다.
이 공개서한은 「언젠가 우리를 수로 넘고, 능력으로 넘어 우리를 진부한 존재로 만들고 우리를 대체할 수 있는 비인간적 지능을 개발」해야 하는지 의문을 제기하고 있다.
이에 대해 이번 성명은 매우 짧은 것으로 대화를 넓히는 것이 목적이라고 밝혔다.
성명에서는 AI에 의한 리스크를 핵전쟁과 비교하고 있다. 오픈AI도 최근 공개한 블로그 게시물에서 슈퍼인텔리전스는 원자력과 비슷한 방식으로 규제될 수 있음을 시사한 바 있다.
「우리는 머지않아, 슈퍼 인텔리전스 개발에 대해 국제 원자력 기구(IAEA) 같은 것이 필요할지도 모른다」
■ '안심했으면 좋겠다'
오픈AI 알트만 CEO와 구글 순다르 피차이 CEO 등은 앞서 AI 규제에 대해 리시 수낙 영국 총리와 의견을 나눈 바 있다.
수낙 총리는 이러한 AI 리스크에 관한 경고에 대해 경제나 사회에의 이익도 있다고 강조했다.
최근에는 AI가 반신불수인 사람들의 보행을 돕거나 새로운 항생제를 발견하고 있다. 이런 일이 안전하고 확실한 방법으로 이뤄지도록 해야 한다.
국민은 정부가 매우 신중하게 검토하고 있다고 안심했으면 좋겠다.
수낙 씨는 앞서 히로시마에서 열린 주요 7개국 정상회의(G7 정상회의)에서도 AI에 대해 협의했다. 또 조만간 미국을 방문해 이 문제를 논의할 것으로 알려졌다.