|
상무부, AI에 대한 바이든 대통령의 행정명령 이후 270일 만에 새로운 지침, 도구 발표.
**커머스는 처음으로 미국 AI 안전 연구소의 새로운 NIST 지침 초안을 공개하여 AI 개발자가 생성적 AI 및 이중 용도 기반 모델에서 발생하는 위험을 평가하고 완화할 수 있도록 지원합니다.
백악관 팩트 시트 읽기 AI에 대한 행정 전반의 조치에 대해.
미국 상무부는 오늘 바이든 대통령의 'AI의 안전하고 안전하며 신뢰할 수 있는 개발에 관한 행정명령(EO)' 이후 270일 만에 인공지능(AI) 시스템의 안전과 보안, 신뢰성 향상을 돕기 위한 새로운 지침과 소프트웨어 발표를 발표했습니다.
미 국립표준기술연구소(NIST)는 지난 4월 공개 논평을 위해 처음 공개된 최종 지침 문서 3건과 위험 완화를 돕기 위한 미국 AI 안전 연구소의 지침 문서 초안을 공개했습니다. NIST는 또한 적대적 공격이 AI 시스템의 성능을 저하시킬 수 있는 방법을 측정하기 위해 설계된 소프트웨어 패키지를 출시합니다. 또한, 상무부의 미국 특허상표국(USPTO)은 AI를 포함한 중요 기술 및 신흥 기술의 혁신을 해결하기 위해 특허 주제 적격성에 대한 지침 업데이트를 발표했습니다.
지나 라이몬도 미 상무장관은 "바이든 대통령과 해리스 부통령의 리더십 아래 상무부는 AI에 관한 역사적인 행정명령을 이행하기 위해 쉬지 않고 노력해 왔으며 이러한 중대한 책임을 맡은 이후 9개월 동안 상당한 진전을 이뤘다"고 말했습니다. "AI는 우리 세대의 정의 기술이기 때문에, 우리는 보조를 맞추고 AI의 안전한 개발과 배치를 보장하기 위해 빠르게 달리고 있습니다. 오늘 발표는 AI 개발자, 배포자 및 사용자에게 AI의 잠재력을 안전하게 활용하는 데 필요한 도구를 제공하는 동시에 관련 위험을 최소화하겠다는 우리의 약속을 보여줍니다. 우리는 큰 진전을 이루었지만 앞으로 해야 할 일이 많습니다. 우리는 AI 분야에서 세계적인 리더로서 미국의 역할을 보호하기 위한 모멘텀을 계속 유지할 것입니다."
NIST의 문서 릴리스는 AI 기술의 다양한 측면을 다룹니다. 오늘 처음으로 두 개가 공개되었습니다. 하나는 미국 AI 안전 연구소의 지침 문서의 초기 공개 초안이며, AI 개발자들이 유익하거나 유해한 목적으로 사용될 수 있는 생성 AI 및 이중 사용 기반 모델에서 발생하는 위험을 평가하고 완화하도록 돕기 위한 것입니다. 다른 하나는 AI 시스템 사용자와 개발자가 특정 유형의 공격이 AI 시스템의 성능을 저하시킬 수 있는 방법을 측정할 수 있도록 설계된 테스트 플랫폼입니다. 나머지 3개 문서 공개 중 2개는 텍스트 기반 이미지 및 비디오 제작 도구뿐만 아니라 많은 챗봇을 가능하게 하는 기술인 생성 AI의 위험을 관리하고 NIST의 AI RMF(AI Risk Management Framework) 및 SSDF(Secure Software Development Framework)에 대한 컴패니언 리소스 역할을 하도록 설계된 지침 문서입니다. 세 번째는 미국 이해 관계자들이 AI 표준에 대해 전 세계 다른 사람들과 협력하는 계획을 제안합니다.
"모든 잠재적인 변혁적 이점에도 불구하고, 생성적 AI는 우리가 기존 소프트웨어에서 보는 것과는 상당히 다른 위험을 가져다 줍니다."라고 표준 및 기술부 차관과 NIST 국장 로리 E는 말했습니다. 로카시오. "이러한 지침 문서와 테스트 플랫폼은 소프트웨어 제작자에게 이러한 고유한 위험에 대해 알리고 혁신을 지원하면서 이러한 위험을 완화하는 방법을 개발하는 데 도움이 될 것입니다."
USPTO의 지침 업데이트는 AI 발명의 특허법(35 U.S.C. § 101)에 따라 USPTO 인력과 이해관계자가 주제 적격성을 결정하는 데 도움이 될 것입니다. 이 최신 업데이트는 특허 출원 및 AI 기술과 관련된 발명과 관련된 특허에서 USPTO 및 출원인이 청구의 주제 적격성을 평가하는 방법에 대한 추가 명확성 및 일관성을 제공함으로써 이전 지침을 기반으로 합니다. 지침 업데이트는 또한 광범위한 기술에 걸쳐 이 지침을 적용하는 방법에 대한 세 가지 새로운 예시를 발표합니다.
"USPTO는 AI를 포함한 중요하고 새로운 기술의 혁신을 촉진하고 보호하는 데 전념하고 있습니다." 라고 지적 재산권 담당 차관이자 USPTO의 국장인 Kathi Vidal 은 말했습니다. "우리는 이 지침 업데이트에 대한 대중의 피드백을 듣기를 기대합니다." 이는 세계 및 지역 사회 문제를 해결하는 데 필요한 혁신을 장려하는 동시에 AI 발명의 주제 적격성을 평가하는 데 있어 더욱 명확한 정보를 제공할 것입니다."
NTIA의 곧 발표될 보고서는 모델 가중치가 널리 사용 가능한 이중 사용 기반 모델(즉, "오픈 웨이트 모델")의 위험과 이점을 검토하고 위험을 완화하면서 이러한 이점을 극대화하는 정책 권장 사항을 개발할 것입니다. 오픈 웨이트 모델을 사용하면 개발자가 이전 작업을 기반으로 구축하고 적응할 수 있으므로 중소기업, 연구원, 비영리 단체 및 개인에게 AI 도구의 가용성을 넓힐 수 있습니다.
NIST의 오늘 발표에 대한 추가 정보는 아래에서 확인할 수 있습니다.
Dual-Use Foundation 모델을 통한 오용 위험 방지
AI 기반 모델은 광범위한 작업에서 유용한 강력한 도구이며 유익성과 위해성 모두에 대한 잠재력 때문에 "이중 사용"이라고 불리기도 합니다. NIST의 미국 AI 안전 연구소는 재단 모델 개발자들이 자신들의 시스템이 개인, 공공 안전 및 국가 안보에 고의적인 해를 입히기 위해 오용되는 것을 보호하는 방법에 대한 자발적인 모범 사례의 개요를 설명하는 이중 사용 재단 모델에 대한 오용 위험 관리 지침의 초기 공개 초안을 발표했습니다.
이 지침 초안은 모델이 잘못 사용될 위험을 완화하기 위한 7가지 주요 접근 방식과 함께 구현 방법 및 구현에 대한 투명성에 대한 권장 사항을 제공합니다. 이러한 관행은 함께 생물학적 무기 개발, 공격적인 사이버 작전 수행, 아동 성학대 자료 및 비동의 친밀한 이미지 생성과 같은 활동을 통해 모델이 피해를 가능하게 하는 것을 방지하는 데 도움이 될 수 있습니다.
AI안전연구원은 [DATE]까지 '이중사용 기반 모델의 오남용 위험 관리' 초안에 대한 국민들의 의견을 받고 있습니다. 의견은 제목 줄에 "NIST AI 800-1, Dual-Use Foundation Models의 오용 위험 관리"와 함께 NISTAI800-1@nist.gov 에 전자적으로 제출할 수 있습니다.
AI 모델이 공격에 어떻게 반응하는지 테스트
AI 시스템의 취약점 중 하나는 핵심에 있는 모델입니다. 모델을 대량의 훈련 데이터에 노출시킴으로써 의사 결정을 내리는 방법을 학습합니다. 그러나 예를 들어 모델이 정지 신호를 속도 제한 신호로 잘못 식별할 수 있는 데이터를 도입함으로써 공격자가 훈련 데이터를 부정확하게 독살하는 경우 모델은 부정확하고 잠재적으로 재앙에 가까운 결정을 내릴 수 있습니다. 기계 학습 모델에 대한 적대적 공격의 효과를 테스트하는 것은 AI 개발자와 고객이 AI 소프트웨어가 다양한 적대적 공격에 얼마나 잘 대처하는지 결정할 수 있도록 돕는 것을 목표로 하는 새로운 소프트웨어 패키지인 Dioptra의 목표 중 하나입니다.
무료 다운로드가 가능한 오픈 소스 소프트웨어는 정부 기관 및 중소 기업을 포함한 커뮤니티에서 시스템 성능에 대한 AI 개발자의 주장을 평가하는 평가를 수행하는 데 도움이 될 수 있습니다. 본 소프트웨어는 NIST가 모델 테스트에 도움을 요청하는 행정 명령 섹션 4.1 (ii) (B)에 응답합니다. Dioptra는 사용자가 어떤 종류의 공격이 모델의 성능을 저하시킬지 결정하고 성능 저하를 정량화하여 사용자가 시스템이 얼마나 자주 그리고 어떤 상황에서 실패할지 알 수 있도록 함으로써 이를 수행합니다.
인공지능의 위험 관리
AI RMF 생성 AI 프로파일(NIST AI 600-1)은 조직이 생성 AI에 의해 제기되는 고유한 위험을 식별하는 데 도움이 될 수 있으며 목표와 우선 순위에 가장 부합하는 생성 AI 위험 관리를 위한 조치를 제안합니다. 이 지침은 NIST의 AI RMF 사용자를 위한 동반자 리소스가 되기 위한 것입니다. 이 지침은 12개의 위험 목록과 개발자들이 위험을 관리하기 위해 취할 수 있는 200개가 조금 넘는 조치를 중심으로 합니다.
12가지 위험에는 사이버 보안 공격에 대한 진입 장벽이 낮아지고, 잘못된 정보 및 허위 정보 또는 혐오 발언 및 기타 유해한 콘텐츠가 생성되고, 출력을 조작하거나 "유혹"시키는 생성 AI 시스템이 포함됩니다. 각 위험을 설명한 후, 이 문서는 AI RMF에 매핑된 개발자가 이를 완화하기 위해 취할 수 있는 조치 매트릭스를 제시합니다.
AI 시스템 교육에 사용되는 데이터에 대한 위협 감소
두 번째로 확정된 출판물인 생성 AI 및 이중 사용 기반 모델을 위한 보안 소프트웨어 개발 관행(NIST Special Publication(SP) 800-218A)은 보안 소프트웨어 개발 프레임워크(SP 800-218)와 함께 사용하도록 설계되었습니다. SSDF는 소프트웨어 코딩 관행에 광범위하게 관심을 가지고 있지만, 동반 리소스는 생성 AI 시스템의 주요 문제를 해결하기 위해 SSDF를 부분적으로 확장합니다. AI 시스템의 성능에 악영향을 미치는 악의적인 훈련 데이터와 손상될 수 있습니다.
이 지침 문서는 AI 시스템의 교육 및 사용 측면을 다루는 것 외에도 잠재적인 위험 요소와 이를 해결하기 위한 전략을 식별합니다. 다른 권장 사항 중에서 중독, 편향, 동질성 및 조작의 징후에 대한 교육 데이터 분석을 제안합니다.
AI 표준에 대한 글로벌 참여
AI 시스템은 미국 내뿐만 아니라 전 세계적으로 사회를 변화시키고 있습니다. AI 표준에 관한 글로벌 참여 계획(NIST AI 100-5)은 오늘 세 번째로 확정된 출판물로, AI 관련 합의 표준, 협력 및 조정, 정보 공유를 전 세계적으로 개발하고 실행할 수 있도록 설계되었습니다.
이 지침은 NIST가 개발한 AI 표준 및 관련 도구에 대한 연방 참여 계획에 명시된 우선 순위를 통해 알려지며, 중요 및 신흥 기술에 대한 국가 표준 전략과 관련이 있습니다. 이 간행물은 많은 국가의 보다 광범위한 다학제적 이해관계자들이 표준 개발 과정에 참여할 것을 제안합니다.
|