AI는 2 년 안에 인류를 위협 할 수 있다고 영국 AI 태스크 포스 고문에게 경고합니다
출처 cointelegraph 저자 사바나 포티스 소스:EK 이페어케이 플러스
영국 총리의 AI 태스크포스 고문은 대규모 AI 모델이 주요 실존적 위험을 억제하기 위해 향후 2년 동안 규제와 통제가 필요할 것이라고 말했습니다
영국 총리의 인공 지능 (AI) 태스크 포스 고문은 AI가 너무 강력 해지기 전에 인간이 AI를 통제하고 규제하는 데 약 2 년이 걸린다 고 말했다.
영국 현지 언론 매체와의 인터뷰에서 정부의 ARIA (Advanced Research and Invention Agency) 의장을 맡고있는 Matt Clifford는 현재 시스템이 "점점 더 빠른 속도로 점점 더 많은 기능을 갖게되고있다"고 강조했다.
그는 공무원들이 지금 안전과 규제를 고려하지 않는다면 시스템은 2 년 안에 "매우 강력해질 것"이라고 말했다.
"우리는 이러한 매우 큰 모델을 통제하고 규제하는 것을 오늘날보다 훨씬 더 가능하게 만드는 프레임 워크를 마련하는 데 2 년이 걸립니다."
Clifford는 단기적으로나 장기적으로 AI와 관련하여 "다양한 유형의 위험"이 있다고 경고했으며, 이를 "매우 무섭다"고 말했습니다.
이 인터뷰는 OpenAI CEO Sam Altman을 포함한 350명의 AI 전문가가 서명한 AI 안전 센터(Center for AI Safety)가 최근 발표한 공개 서한에 이어 AI가 핵무기 및 전염병으로 인한 것과 유사한 실존적 위협으로 취급되어야 한다고 말했습니다.
"그들은 우리가 인간보다 더 큰 지능을 가진 새로운 종을 효과적으로 만들면 어떻게 되는지에 대해 이야기하고 있습니다."
AI 태스크포스 고문은 AI가 제기하는 이러한 위협이 "매우 위험"할 수 있으며 "2년 안에 모델이 있을 것으로 예상되는 곳에서 모든 인간이 아니라 많은 인간을 죽일 수 있다"고 말했습니다.
Clifford에 따르면 규제 기관과 개발자의 주요 초점은 모델을 제어하는 방법을 이해한 다음 글로벌 규모로 규제를 구현하는 것입니다.
현재 그는 AI 모델이 왜 그렇게 행동하는지에 대한 이해가 부족하다는 것이 가장 큰 두려움이라고 말했다.
"가장 유능한 시스템을 구축하는 사람들은 [AI 시스템]이 자신이하는 행동을 어떻게 나타내는지 정확히 이해하지 못한다는 것을 자유롭게 인정합니다."
Clifford는 AI를 구축하는 조직의 많은 리더들이 강력한 AI 모델이 배포 전에 일종의 감사 및 평가 프로세스를 거쳐야 한다는 데 동의한다고 강조했습니다.
현재 전 세계 규제 당국은 기술과 그 파급 효과를 이해하기 위해 분주하게 움직이고 있으며, 사용자를 보호하면서도 혁신을 허용하는 규정을 만들기 위해 노력하고 있습니다.
6월 <>일, 유럽 연합 관리들은 허위 정보를 방지하기 위해 모든 AI 생성 콘텐츠에 라벨을 부착하도록 의무화해야 한다고 제안하기까지 했습니다.
영국에서는 야당인 노동당의 한 대표가 인공지능안전센터(Center for AI Safety)의 서한에 언급된 정서를 되풀이하며 기술은 의학과 원자력처럼 규제되어야 한다고 말했다.
저자
사바나 포티스 Savannah Fortis는 문화, 국제 관계 및 기술의 교차점에서 이야기를 다루는 멀티미디어 저널리스트입니다.