|
보다 구체적으로 말하면, 임시 합의는 다음과 같은 측면을 다룹니다.
정의 및 범위
AI 시스템의 정의가 AI를 단순한 소프트웨어 시스템과 구별하기 위한 충분히 명확한 기준을 제공하도록 하기 위해 타협 협정은 정의를 OECD가 제안한 접근 방식과 일치시킵니다.
또한 임시 협정은 이 규정이 EU 법의 범위를 벗어난 영역에는 적용되지 않으며 어떠한 경우에도 국가 안보 에 대한 회원국의 역량 이나 이 영역에서 업무를 위임받은 기관에 영향을 주어서는 안 된다는 점을 명시하고 있습니다. 또한 군사 또는 국방 목적 으로만 사용되는 시스템에는 AI법이 적용되지 않습니다 . 마찬가지로, 이 계약에서는 연구 및 혁신 의 목적으로만 사용되는 AI 시스템 이나 비전문적인 이유로 AI를 사용하는 사람들에게는 이 규정이 적용되지 않는다고 규정합니다.
AI 시스템을 고위험 및 금지된 AI 관행으로 분류
타협 합의는 심각한 기본권 침해나 기타 중대한 위험을 초래할 가능성이 없는 AI 시스템이 포착되지 않도록 고위험 분류를 포함한 수평적 보호 계층을 제공합니다. 제한된 위험 만 제시하는 AI 시스템에는 매우 가벼운 투명성 의무가 적용됩니다 . 예를 들어 콘텐츠가 AI에서 생성되었음을 공개하여 사용자가 추가 사용에 대해 정보에 입각한 결정을 내릴 수 있도록 합니다.
광범위한 고위험 AI 시스템이 승인되지만 EU 시장에 접근하기 위한 일련의 요구 사항과 의무가 적용됩니다. 이러한 요구 사항은 예를 들어 데이터 품질이나 기술 문서와 관련하여 이해관계자가 준수하는 것이 더 기술적으로 실현 가능 하고 덜 부담스러운 방식으로 공동 입법자들에 의해 명확화되고 조정되었습니다. 고위험 AI 시스템이 요구 사항을 준수함을 입증하기 위해 중소기업이 작성했습니다.
AI 시스템은 복잡한 가치 사슬을 통해 개발되고 배포되기 때문에 타협 합의에는 해당 사슬에 있는 다양한 행위자 , 특히 AI 시스템 제공자와 사용자의 책임 과 역할 할당을 명확히 하는 변경 사항이 포함됩니다. 또한 AI법에 따른 책임과 관련 EU 데이터 보호 또는 부문별 법률과 같은 다른 법률에 이미 존재하는 책임 간의 관계를 명확히 합니다.
일부 AI 사용의 경우 위험이 허용되지 않는 것으로 간주 되므로 이러한 시스템은 EU에서 금지됩니다. 잠정 합의에서는 인지 행동 조작 , 인터넷이나 CCTV 영상의 얼굴 이미지를 의도하지 않게 스크랩하는 것, 직장과 교육 기관에서 감정 인식 , 사회적 점수 매기기 , 성적 취향이나 종교와 같은 민감한 데이터를 추론하기 위한 생체 인식 분류 등을 금지합니다. 신념, 개인에 대한 예측 치안 의 일부 사례 .
법 집행 예외
법 집행 기관 의 특수성 과 중요한 업무에서 AI를 사용할 수 있는 능력을 보존해야 할 필요성을 고려하여 법 집행 목적으로 AI 시스템을 사용하는 것과 관련하여 위원회 제안에 대한 몇 가지 변경 사항이 합의되었습니다. 적절한 보호 조치 에 따라 이러한 변경은 해당 활동과 관련하여 민감한 운영 데이터의 기밀성을 존중해야 할 필요성을 반영하기 위한 것입니다. 예를 들어, 긴급한 경우 법 집행 기관이 적합성 평가 절차 를 통과하지 못한 고위험 AI 도구를 배포할 수 있도록 하는 긴급 절차가 도입되었습니다 . 그러나 AI 시스템의 잠재적인 오용으로부터 기본권이 충분히 보호될 수 있도록 특정 메커니즘도 도입되었습니다 .
더욱이, 공개적으로 접근 가능한 공간에서 실시간 원격 생체 인식 시스템의 사용과 관련하여, 잠정 합의는 그러한 사용이 법 집행 목적을 위해 엄격하게 필요하고 따라서 법 집행 기관이 예외적으로 그러한 시스템을 사용하도록 허용해야 하는 목적을 명확히 합니다. . 타협 협정은 추가적인 보호 장치를 제공 하고 이러한 예외를 특정 범죄 피해자의 경우, 테러 공격과 같은 실제적이거나 현재적이거나 예측 가능한 위협의 예방, 가장 심각한 범죄로 의심되는 사람에 대한 수색으로 제한합니다.
범용 AI 시스템 및 기반 모델
AI 시스템이 다양한 목적( 범용 AI )으로 사용될 수 있는 상황과 범용 AI 기술이 이후에 다른 고위험 시스템에 통합되는 상황을 고려하기 위해 새로운 조항이 추가되었습니다 . 잠정 합의에서는 범용 AI(GPAI) 시스템의 특정 사례도 다루고 있습니다.
비디오, 텍스트, 이미지 생성, 측면 언어로 대화, 컴퓨팅 또는 컴퓨터 코드 생성과 같은 광범위한 고유 작업을 유능하게 수행할 수 있는 기반 모델 , 대규모 시스템 에 대한 특정 규칙도 합의되었습니다 . 임시 계약은 기초 모델이 시장에 출시되기 전에 특정 투명성 의무를 준수해야 한다고 규정합니다. '높은 영향' 기초 모델 에 대해 보다 엄격한 제도가 도입되었습니다 . 이는 대량의 데이터와 평균보다 훨씬 뛰어난 고급 복잡성, 기능 및 성능으로 훈련된 기반 모델로, 가치 사슬을 따라 시스템적 위험을 퍼뜨릴 수 있습니다.
새로운 거버넌스 아키텍처
GPAI 모델에 대한 새로운 규칙과 EU 차원에서 시행해야 할 명백한 필요성에 따라 위원회 내 AI 사무국은 이러한 가장 진보된 AI 모델을 감독하고 표준 및 테스트 관행을 육성하는 데 기여하며 EU 수준에서 공통 규칙을 시행하는 임무를 맡게 되었습니다. 모든 회원국. 독립적인 전문가로 구성된 과학 패널은 기초 모델의 기능을 평가하기 위한 방법론 개발에 기여하고, 영향력이 큰 기초 모델의 지정 및 출현에 대해 조언하고, 관련 가능한 물질 안전 위험을 모니터링함으로써 GPAI 모델에 대해 AI 사무국에 조언할 것입니다. 기초 모델까지.
회원국 대표로 구성된 AI 이사회는 위원회의 조정 플랫폼이자 자문 기관으로 남을 것이며 재단 실행 강령 설계를 포함하여 규정 이행에 대해 회원국에게 중요한 역할을 제공할 것입니다. 모델. 마지막으로 업계 대표, 중소기업, 스타트업, 시민사회, 학계 등 이해관계자를 위한 자문 포럼을 구성해 AI 이사회에 기술 전문지식을 제공할 예정이다.
처벌
AI법 위반에 대한 벌금은 위반 회사의 전년도 회계연도 글로벌 연간 매출액의 백분율 또는 미리 결정된 금액 중 더 높은 금액으로 설정되었습니다. 이는 금지된 AI 애플리케이션 위반의 경우 3,500만 유로 또는 7%, AI법 의무 위반의 경우 1,500만 유로 또는 3%, 잘못된 정보 제공의 경우 750만 유로 또는 1.5%가 됩니다. 그러나 잠정 합의에서는 AI법 조항을 위반할 경우 중소기업 및 스타트업에 대한 행정 벌금에 대해 보다 비례적인 상한선을 제공합니다.
또한 타협 합의에서는 자연인이나 법인이 관련 시장 감시 기관 에 AI 법 위반에 대해 불만을 제기할 수 있으며 그러한 불만이 해당 기관의 전담 절차에 따라 처리될 것으로 기대할 수 있음을 분명히 하고 있습니다.
투명성과 기본권 보호
임시 계약은 배포자가 고위험 AI 시스템을 시장에 출시하기 전에 기본권 영향 평가를 제공합니다. 잠정 합의는 또한 고위험 AI 시스템 사용과 관련하여 투명성을 높였습니다 . 특히, 공공 기관인 고위험 AI 시스템의 특정 사용자도 고위험 AI 시스템에 대한 EU 데이터베이스 에 등록할 의무가 있음을 나타내기 위해 위원회 제안의 일부 조항이 수정되었습니다. 또한 새로 추가된 조항에서는 감정 인식 시스템 사용자가 그러한 시스템에 노출될 때 자연인에게 이를 알려야 할 의무를 강조합니다 .
혁신을 지원하는 조치
보다 혁신 친화적인 법적 틀을 만들고 증거 기반 규제 학습을 촉진하기 위해 혁신 지원 조치에 관한 조항은 위원회 제안과 비교하여 실질적으로 수정되었습니다.
특히, 혁신적인 AI 시스템의 개발, 테스트 및 검증을 위한 통제된 환경을 구축하기 위한 AI 규제 샌드박스는 실제 조건에서 혁신적인 AI 시스템의 테스트도 허용해야 한다는 것이 명확해졌습니다 . 또한, 특정 조건 및 보호 조치에 따라 실제 조건 에서 AI 시스템을 테스트 할 수 있는 새로운 조항이 추가되었습니다 . 소규모 회사의 행정적 부담을 완화하기 위해 임시 계약에는 해당 운영자를 지원하기 위해 취해야 할 조치 목록이 포함되어 있으며 일부 제한적이고 명확하게 명시된 적용 제외 사항을 제공합니다.
발효
잠정합의서는 AI법이 특정 조항을 제외하고 발효 후 2년 후에 적용되어야 한다고 규정하고 있다.
다음 단계
오늘의 임시 합의에 따라 앞으로 몇 주 동안 기술 수준에서 새로운 규정의 세부 사항을 마무리하는 작업이 계속될 것입니다. 의장단은 이 작업이 완료되면 승인을 위해 회원국 대표(Coreper)에게 타협안을 제출할 것입니다.
전체 내용은 두 기관의 확인을 거쳐 공동 입법자들이 공식적으로 채택하기 전에 법률-언어적 수정을 거쳐야 합니다.
배경 정보
2021년 4월에 제출된 위원회 제안은 기본권을 존중하는 안전하고 합법적인 AI의 단일 시장 전반에 걸쳐 개발 및 활용을 촉진하려는 EU 정책의 핵심 요소입니다.
이 제안은 위험 기반 접근 방식을 따르며 법적 확실성을 보장하는 것을 목표로 하는 AI에 대한 통일되고 수평적인 법적 프레임워크를 마련합니다. 규정 초안은 AI에 대한 투자와 혁신을 촉진하고, 기본권과 안전에 관한 기존 법률의 거버넌스와 효과적인 집행을 강화하며, AI 애플리케이션을 위한 단일 시장 개발을 촉진하는 것을 목표로 합니다. 이는 유럽에서 AI에 대한 투자를 가속화하는 것을 목표로 하는 인공 지능에 대한 조정 계획을 포함한 다른 이니셔티브와 밀접하게 연관되어 있습니다. 2022년 12월 6일에 이사회는 이 파일에 대한 일반적인 접근 방식(임무 협상)에 대한 합의에 도달했고 2023년 6월 중순에 유럽 의회와 기관 간 회담('3차 회의')을 시작했습니다.
|