|
인공 지능 ( AI )은 비즈니스와 일상 생활에 중대한 변화를 가져오고 있습니다. AI는 사회적 문제에 대한 극적인 해결책을 제시하지만, 예측할 수없는 성격, 설명 할 수없는 데이터 편향의 반영 또는 증폭은 프라이버시, 보안, 공정성 및 민주주의에 대한 다양한 우려를 제기합니다. 이에 대응하여 전 세계 정부, 국제기구 및 연구소는 2010 년대 후반에 인간 중심 AI에 대한 일련의 원칙을 발표하기 시작했습니다. [1 ]
광범위한 원칙으로 시작된 것은 이제보다 구체적인 규정으로 전환되고 있습니다. 2021 년 유럽위원회는 인공 지능 법 초안, AI를 4 가지 수준으로 분류하고 보안, 투명성 및 책임 성 강화 조치를 포함한 해당 의무를 규정합니다. 미국에서는 2022 년 알고리즘 책임법 2022 년 2 월 두 의회 의원에 소개되었습니다. 2022 년 6 월, 캐나다는 인공 지능 및 데이터 법 영향이 큰 AI 시스템에 관한 위험 관리 및 정보 공개가 의무화되는 ( AIDA ).
AI를 규제하는 것은 근본적인 가치에 대한 위협을 예방하는 데 다소 필요하지만 규정 준수의 부담과 규제 내용의 모호성으로 인해 혁신이 저해 될 수 있다는 우려가 있습니다. 또한 규제 파편화는 기업뿐만 아니라 사회에도 심각한 비용을 부과 할 것입니다. 유익한 혁신과 채택을 가속화하면서 AI의 위험을 해결하는 방법은 Group of Seven ( G7 ) 리더를 포함하여 정책 입안자들에게 가장 어려운 과제 중 하나입니다.
일본에서 2023 년 G7 정상 회담에서 디지털 장관은 논의 될 것으로 예상 규제 또는 비 규제 정책 도구를 포함 할 수있는 AI에 대한 인간 중심 접근. 개최국으로서 AI 규제에 대한 일본의 접근 방식은 전 세계 지도자들의 합의 구축에 상당한 영향을 미칠 수 있습니다. 이 백서는 일본의 AI 규정의 주요 동향을 분석하고 G7 정상 회의에서 어떤 주장을 할 수 있는지 논의합니다.
요약하자면, 일본은 AI가 사회에 미치는 긍정적 인 영향을 극대화하기 위해 AI 관련 규정을 개발하고 개정하여 과대 평가 된 위험에서이를 억제하지 않고 있습니다. 모든 규모의 의무 나 금지보다는 위험 기반, 민첩성 및 다중 이해 관계자 프로세스에 중점을 둡니다. 일본의 접근 방식은 AI 규제에 대한 글로벌 트렌드에 대한 중요한 통찰력을 제공합니다.
유익한 혁신과 채택을 가속화하면서 AI의 위험을 해결하는 방법은 Group of Seven ( G7 ) 리더를 포함하여 정책 입안자들에게 가장 어려운 과제 중 하나입니다.
일본의 AI 규정
기본 원리
2019 년 일본 정부는 인간 중심 AI의 사회적 원칙 사회에서 AI를 구현하기위한 원칙으로서 ( 사회적 원칙 ). 사회 원칙은 인간의 존엄성, 다양성 및 포용성, 지속 가능성이라는 세 가지 기본 철학을 제시합니다. 사회 원칙의 목표는 이러한 원칙을 보호하기 위해 AI의 사용을 제한하는 것이 아니라이를 실현하는 것입니다 통과 AI. 이것은의 구조에 해당합니다 경제 협력 개발기구 ( OECD ) AI 원칙, 첫 번째 원칙은 AI를 통해 “ 포용 적 성장, 지속 가능한 개발 및 복지 ”을 달성하는 것입니다.
이러한 목표를 달성하기 위해 사회 원칙은 AI를 둘러싼 7 가지 원칙을 제시했다 : ( 1 ) 인간 중심; ( 2 ) 교육 / 문해력; ( 3 ) 개인 정보 보호; ( 4 ) 보안 보장; ( 5 ) 공정 경쟁; ( 6 ) 공정성, 책임 성 및 투명성; 및 ( 7 ) 혁신. 원칙에는 개인 정보 보호 및 보안의 보호 요소뿐만 아니라 교육, 공정 경쟁, 그리고 혁신.
일본의 AI 규제 정책은 이러한 사회적 원칙을 기반으로합니다. AI 규정은 두 가지 범주로 분류 할 수 있습니다. (이 논문에서 “ 규제 ”은 구속력없는 지침 및 표준과 같은 경법뿐만 아니라 연법을 의미합니다. ):
아래에 요약 된 바와 같이, 일본은 AI 규제에 대한 위험 기반의 소프트 법률 접근 방식을 취하면서 AI 규제 관점에서 입법 개혁을 적극적으로 추진하고 있습니다.
AI에 대한 규제
구속 규정
일본에는 일반적으로 AI 사용을 제한하는 규정이 없습니다. 에 따르면 일본의 AI 거버넌스. 1.1경제 무역부에서 발표 한 보고서, 2021 년 7 월 산업 ( METI ) — 일본의 AI 규제 정책 ( AI 거버넌스 보고서 ) — AI 시스템에 대한 법적 구속력이있는 수평 요구 사항을 포괄적으로 설명하는 “ 현재 ” 이는 규제가 AI 혁신의 속도와 복잡성을 따라 잡는 데 어려움을 겪기 때문입니다. 이러한 맥락에서 규범적이고 정적 인 세부적인 규제는 혁신을 저해 할 수 있습니다. 따라서 METI 보고서는 정부가 AI 거버넌스에 대한 기업의 ’ 자발적 노력을 존중하면서 그러한 노력을 지원하거나 안내하기위한 구속력없는 지침을 제공해야한다고 결론 지었다. 지침은 다중 이해 관계자 대화를 기반으로하며 적시에 지속적으로 업데이트되어야합니다. 이 접근법을 “ 애자일 거버넌스라고합니다,”은 디지털 거버넌스에 대한 일본의 기본 접근 방식입니다.
부문 별 규정을 살펴보면 AI 자체의 사용을 금지하는 것이 아니라 기업이 적절한 조치를 취하고 위험에 대한 정보를 공개하도록 요구합니다. 예를 들어 디지털 플랫폼 투명성 법 검색 순위를 결정하는 주요 요소의 공개를 포함하여 비즈니스 사용자와의 거래에서 투명성과 공정성을 보장하기 위해 대규모 온라인 쇼핑몰, 앱 스토어 및 디지털 광고 비즈니스에 요구 사항을 부과합니다. [ 2 ] 금융 상품 및 교환법 알고리즘 고속 거래에 종사하는 기업이 정부에 등록하고 위험 관리 시스템을 구축하고 거래 기록을 유지해야합니다. 공정 경쟁의 관점에서 일본 공정 거래위원회 알고리즘에 의해 수행 될 카르텔 및 불공정 거래의 잠재적 위험을 분석하고 대부분의 문제가 기존에 의해 다루어 질 수 있다고 결론 내 렸습니다 독점 금지법.
기타 관련 법률
AI 시스템을 직접 제정하지는 않지만 AI의 개발 및 사용과 관련이있는 법률이 있습니다. 그만큼 개인 정보 보호에 관한 법률 ( APPI )은 개인 정보를 수집, 사용 또는 전송하는 조직의 주요 의무 의무를 설명합니다. 2022 년에 발효 된 APPI의 최신 개정안은 가명 화 된 개인 데이터의 개념을 도입했습니다. [3 ] 가명 화 된 정보를 처리 할 의무는 개인 정보보다 덜 번거롭기 때문에이 새로운 개념은 기업이 AI 개발에 더 많은 데이터를 사용하도록 장려 할 것으로 예상됩니다.
AI가 제 3 자에게 피해를 입히는 경우, AI의 개발자 또는 운영자는 과실이있는 경우 민법에 따라 불법 행위를 할 수 있습니다. 그러나 AI 출력을 예측할 수없고 출력의 원인을 식별하기 어렵 기 때문에 각 상황에서 누가 과실인지 판단하기가 어렵습니다. [4 ] 제품 책임법 불법 행위 책임을 주장 할 때 피해자의 증거 부담을 줄이지 만,이 행위는 유형의 물건으로 인한 피해에만 적용됩니다. 따라서 AI가 설치된 하드웨어에는 적용되지만 AI 프로그램 자체에는 적용되지 않을 수 있습니다.
AI의 개발 및 배포를 장려하기위한 다른 관련 규정 및 법률이 있으며, 이는 “ AI에 대한 규정 ” 섹션에 도입 될 것입니다.
개인을위한 지침
위에서 언급 한 바와 같이, 일본에는 AI 사용을 직접 금지하는 규정이 없습니다. 그러나 위에서 언급 한 바와 같이, AI 시스템으로 인해 사고가 발생하면 운영자는 불법 행위 또는 제품 책임에 대해 책임을 질 수 있습니다. 또한, 개인 정보 보호 영역 —에서 주로 사회적 비판으로 인해 AI 프로젝트가 포기 된 경우가 있었으며 반드시 기존 규정을 위반 한 것이 아니기 때문입니다. 이러한 요구를 예상하여 정부는 기업이 적절한 AI 거버넌스 조치를 자발적으로 구현할 수 있도록 다양한 도구를 제공합니다.
METI AI 원칙 이행을위한 거버넌스 지침 사회 원칙을 이행하기위한 행동 목표와 구체적인 예를 통해이를 달성하는 방법을 요약합니다. 민첩한 거버넌스 프레임 워크에 따라 이해 관계자와 협력하여 AI 거버넌스 구조를 설정하고 업데이트하는 프로세스를 설명합니다.
데이터 보호 및 활용에 대한 몇 가지 지침이 발표되었습니다. 그만큼 디지털 혁신의 개인 정보 보호를위한 기업 지배 구조 안내서 그리고 카메라 이미지 활용 가이드 북, METI와 내무부 ( MIC )이 공동으로 개발 한, APPI 준수뿐만 아니라 이해 관계자와의 의사 소통을 기반으로 적절한 조치를 취하는 측면에서 개인 정보 데이터를 처리하는 방법에 대한 지침을 제공합니다.
AI 개발 및 데이터 전송을위한 공정한 계약을 촉진하기 위해 METI는 AI 및 데이터 활용에 관한 계약 지침. 이 지침은 실제 모델 조항과 함께 데이터 전송 또는 AI 개발 계약을 체결 할 때 주요 법적 문제를 설명합니다.
기업의 자발적 이니셔티브
정부가 AI 및 데이터 거버넌스에 대한 지침을 발표함에 따라 일부 민간 기업은 AI 거버넌스에 적극적으로 접근하기 시작했습니다. 후지쯔 출판 연습 가이드 AI 윤리 영향 평가를 수행하는 절차를 보여주고 대표 사례에 적용 사례를 발표했습니다. 소니는 소니 그룹 AI 윤리 지침 품질 관리 시스템에 추가했습니다. NEC는 NEC 그룹 AI와 인권 원칙, 디지털 신탁 사업 전략 부서에서 구현합니다.
연구소의 도구
일본 연구 기관은 AI 거버넌스를 촉진하기위한 다양한 도구를 제공합니다. METI가 관리하는 국립 고급 산업 과학 기술 연구소 ( AIST )은 기계 학습 품질 관리 지침, 기계 학습 기반 제품 또는 서비스에 대한 품질 벤치 마크 표준을 설정합니다. 또한 개발 프로세스 관리 및 시스템 평가를 통해 품질을 달성하기위한 절차 적 지침을 제공합니다.
또 다른 예로, 도쿄 대학의 미래 이니셔티브 연구소는 리스크 체인 모델 AI의 위험 요소를 구성하고 민간 회사와 협력하여 사례 연구를 수행하고 있습니다.
AI 규제
AI 측면에 대한 위에서 언급 한 규정이 종종 논의되지만 규제 에 대한 AI 측면이 AI가 사회에 긍정적 인 영향을 미치도록하는 것도 마찬가지로 중요합니다. 일본의 입법자들은 관련 위험에 대한 적절한 고려에 기초하여 — 다양한 상황에서 AI의 사용을 촉진하기 위해 규제 개혁을 사용했습니다.
부문 별 규제 개혁
2020 년에 개정 된 도로 교통법 및 도로 운송 차량 법이 발효되어 공공 도로에서 레벨 3 자동 운전 (, 조건부 자동화 )가 허용되었습니다. 2021 년 Honda는 법적으로 승인 된 레벨 3 차량. ᅡ 새로운 개정 레벨 4 자동 주행 (을 허용하는 것, 즉 높은 자동화 )은 2023 년 4 월 1 일부터 시행됩니다.
일본의 입법자들은 관련 위험에 대한 적절한 고려에 기초하여 — 다양한 상황에서 AI의 사용을 촉진하기 위해 규제 개혁을 사용했습니다.
금융 부문에서 할부 판매법 “ 인증 종합 신용 구매 중개자 ”이 데이터 및 AI를 사용하여 신용 금액을 결정할 수 있도록 2020 년에 개정되었습니다. 이전, 신용 카드 회사는 신용 금액을 평가할 때 연간 소득, 가족 구조 및 기타 요소를 고려하여 법정 공식을 사용해야했습니다.
플랜트 안전을 위해 “ Super Certified Operator ” 시스템이 2017 년에 고압 가스 안전법. 플랜트 운영자는 1 년에 한 번 운영을 중단하고 안전 검사를 수행해야합니다, 그러나 AI 및 드론을 사용하여 고급 안전 기술을 보유한 것으로 인증 된 운영자 ( Super Certified Operators )은 최대 8 년 동안 작업을 중단하지 않고 안전 검사를 수행 할 수 있습니다.
그만큼 저작권법 머신 러닝에서 데이터 사용을 촉진하기 위해 2017 년에 개정되었습니다. 그만큼 개정 인터넷 또는 AI 모델을 개발하기위한 다른 수단을 통해 데이터를 다운로드하거나 처리하는 것은 저작권을 침해하지 않는다는 점을 분명히했습니다. 또한 2019 년 개정 불공정 경쟁 방지법 액세스가 제한된 공유 데이터를 보호하며 일반적으로 유료로 판매되는 데이터 세트가 수반됩니다. 이러한 데이터의 무단 획득 또는 오용은 금지 명령 또는 손해에 대한 청구의 대상이됩니다. 이러한 고유 한 조항은 AI 개발자가 AI 학습에 더 많은 데이터를 사용하는 동시에 데이터 보유자의 적절한 이익을 보호하는 데 도움이됩니다.
포괄적 인 규제 개혁 —디지털 린초
많은 기존 규정에 따라 사람은 육안 검사를 수행하거나 사업장에 주둔해야합니다. 그러나 AI 시스템은 그러한 인간 준수를 어느 정도 대체 할 수 있어야합니다. 이것을 해결하기 위해 디지털 린초 ( “ 린초 ”은 2021 년 11 월 캐비닛 아래에 임시위원회 )이 설립되었음을 의미합니다. Digital Rincho는 규제 준수를 확립하기위한 수단으로 디지털 기술의 사용을 방해하는 규정을 종합적으로 개정하는 것을 목표로합니다. 서면 문서, 현장 검사, 정기 검사 및 풀 타임 스테이션에 대한 요구 사항을 포함하여 아날로그 방법 및 비 AI 기술에 대한 약 5,000 개의 규정이 검토 대상이 될 것입니다.
요약
AI 측의 규제에서 일본은 기업 ’ 자발적 거버넌스를 존중하고이를 지원하기위한 구속력없는 지침을 제공하는 한편 일부 대형 디지털 플랫폼에 투명성 의무를 부과하는 접근 방식을 취했습니다. AI 측의 규제에서 일본은 AI가 긍정적 인 사회적 영향과 규제 목표 달성에 사용될 수 있도록하는 규제 개혁을 추구하고 있습니다. 그러나 어떤 종류의 AI가 실제로 규정의 요구 사항을 충족시키는 지 알 수 있습니다. 국제 표준에 비추어 고려해야하며, 이는 AI 규제에 대한 국제 협력이 필요합니다.
AI 거버넌스에 대한 국제 협력을 향한 일본의 리더십
G7 국가의 차이점과 공통점
소개에서 언급했듯이 AI 규제는 G7 리더에게 가장 어려운 주제 중 하나입니다. 지금까지 G7 국가의 접근 방식은 두 그룹으로 분류 된 것으로 보입니다.
첫 번째 그룹은 “ 전체적이고 법에 근거한 ” 접근 방식을 취하려고하는데, 이는 거버넌스, 투명성, 위반시 — Category 1 (에 대한 중대한 제재와 함께 고위험 AI )에 대한 보안. EU AI 법이 적용되는 프랑스, 독일 및 이탈리아는이 그룹으로 분류 할 수 있습니다. AIDA를 제안하는 캐나다도이 범주에 포함됩니다. 두 번째 그룹은 “ 부문 별 및 소프트 법률 기반 ” 접근 방식을 취합니다, 일부 부문에서는 투명성과 데이터 보호를 요구하면서 포괄적 인 AI 규정 (이 아닌 구속력없는 지침 )을 통해 적절한 AI 거버넌스를 촉진하고자합니다. ( Category 2 ). 일본과 영국이 범주에 속합니다. 미국도이 그룹에 속하지만 알고리즘 책임법 또는 유사한 법안이 의회에서 채택되면 카테고리 1에 더 가까워 질 수 있습니다.
이러한 격차를 고려할 때 G7 논의는 “ 다른 접근 방식을 가진 국가들간에 어떤 종류의 협력이 이루어질 수 있는가? ” 그 후 담론은 “ 어떤 협력이 가능합니까? ”
각 국가의 규정 ( Category 1 ) 및 게시 된 지침 ( Category 2 )을 면밀히 검토 할 때 법적 구속력이 있는지 여부를 제외하고는 이들간에 많은 유사점이 있습니다.
첫째, 두 경우 모두 AI 거버넌스를 통해 달성해야 할 목표는 OECD AI 원칙 ( 및 투명성 및 설명 가능성을 포함한 G20 AI 원칙 )과 같은 기타 관련 원칙과 조화를 이룹니다, 개인 정보 보호, 공정성, 보안 및 안전 및 책임. 또한 이해 관계자에게 적절한 정보를 제공하고 영향 평가를 수행하며 AI 운영 기록을 유지하기 위해 두 범주 모두에서 ( 또는 필수 )을 권장합니다, 적어도 특정 범주의 고위험 AI에 대해.
둘째, 카테고리 2 국가뿐만 아니라 카테고리 1 국가에서도 특정 규제 요구 사항이 아직 자세히 설명되어 있지 않습니다, 이는 AI 서비스 제공 업체가 스스로 좋은 행동을 할 수있는 여지가 많다는 것을 의미합니다. 그들이 다룰 수있는 질문의 예는 다음과 같습니다. 일반 언어로 알고리즘에 대한 정확한 논리를 어떻게 설명 할 수 있습니까? 쉽게 정량화 할 수없는 위험을 어떻게 평가합니까? 공정성, 안전 또는 개인 정보 보호를 위해 어떤 기술적 방법을 사용할 수 있습니까? 사고 발생시 치료 메커니즘과 궁극적 인 책임 부담은 어떻게 설계됩니까? 이러한 세부 사항은 각 AI 시스템 공급자 또는 사용자가 설계하고 업데이트해야합니다.
이러한 AI 거버넌스의 구현은 아직 카테고리 2 국가와 만 관련된 AI 서비스 제공 업체에게 법적으로 의무적이지 않습니다. 그러나 적어도 시장과 사회적 영향이 큰 AI 사업자에게는 AI에 대한 적절한 거버넌스 및 위험 완화 조치를 고려하고 구현하는 것이 시장에 필수적입니다, 사회는 그들의 서비스를 받아들이지 않을 것입니다.
이러한 상황에서 AI 거버넌스를 수행하는 AI 서비스 제공 업체뿐만 아니라 AI 거버넌스의 적합성을 평가하는 규제 기관에게도 중요합니다, 좋은 AI 거버넌스 관행에 대한 공통된 이해를 갖기 위해 시장 참여자와 개인뿐만 아니라. 또한 AI가 국내 및 전세계에 영향을 미칠 것이라는 점을 감안할 때, 같은 생각을 가진 국가들이 그러한 공통된 이해를 개발하고 채택하는 것이 바람직 할 것입니다.
협업을위한 가능한 단계
국가들이 국제 협력을위한 실제 조치를 취하는 것을 고려하는 강력한 사례가있다. 이러한 포럼은 이미 다양한 포럼에서 시작되었습니다. 2022 년 12 월 EU- 미국. 무역 기술위원회 ( TTC ) ’ AI 표준 실무 그룹 발표 신뢰할 수있는 AI 및 위험 관리를위한 평가 및 측정 도구에 대한 공동 로드맵 AI 표준에 대한 국제 협력 강화. OECD는 다음을 포함한 도구와 지식 기반을 제공합니다 AI 시스템 분류를위한 프레임 워크. 국제 표준화기구 ( ISO ) 내에서 표준화 작업이 진행 중입니다 인공 지능 분야의 표준화( ISO / IEC JTC 1 / SC 42 ). 이러한 이니셔티브는 여전히 로드맵 단계에 있으며 실제로 구현되기 전에 다양한 프로세스가 필요합니다. 다음은 국제 협력에서 가능한 미래 단계입니다.
비교적 쉬운 단계는 다른 국가간에 AI 사고와 모범 사례를 공유하는 것입니다. 다른 모든 영역의 규정과 마찬가지로 AI 규정은 추상적 개념에서 추론되는 것이 아니라 구체적인 필요성과 비례에 따라 구현되어야합니다. 따라서 AI가 어떤 영역에서 어떤 위험을 초래했는지, 어떤 기술, 조직, 사회적 방법은이를 극복하는 데 효과적이었다 —은 정책 입안자들에게 중요한 의사 결정 도구가 될 것이다. 예를 들어, 인공 지능에 관한 글로벌 파트너십 ( GPAI )은 AI에 대한 이론과 실제의 격차를 해소하기 위해 OECD에 수용된 다중 이해 관계자 이니셔티브입니다, 기후 변화 데이터 사용 및 개인 정보 보호 기술 사용에 대한 모범 사례를 분석하고 있습니다.일본은 2022 년 GPAI의 의장직을 맡고 있으며 – 2023은 이러한 모범 사례의 국제 개발에 기여하고 있습니다.
이러한 모범 사례를 일반화 할 수있는 경우 국제 표준이 다음 단계가 될 수 있습니다. 표준은 AI 서비스 제공 업체에게 우수한 AI 거버넌스 관행에 대한 통찰력을 제공하고 카테고리 1 국가의 규제 내용을 명확하게합니다, 카테고리 2 ( 및 카테고리 1 ) 국가에서 책임 및 사회적 평가의 기초로 사용됩니다. 예를 들어, 위에서 언급 한 TTC는 ( 1 ) 공유 용어 및 분류법, ( 2 ) 신뢰할 수있는 AI 및 위험 관리를위한 도구에 대한 표준화를 진행하기로 합의했습니다, ( 3 ) AI 위험 모니터링 및 측정. ISO 측면에서 일본은 여러 실무 그룹을 소집하여 SC 42에 기여했으며, “ AI 지원 건강 정보학 ” ( 공동 실무 그룹 3 ) 및 “ 사용 사례 및 출판물 ” ( 실무 그룹 4 ) 포함.
보다 야심 찬 시도는 AI 거버넌스에 대한 국경 간 상호 운용성을 달성하는 것입니다. 즉, 인증 ( (예 : 보안 인증, 유형 인증 )) 또는 프로세스 ( (예 : AI 영향 평가)을 수행하는 메커니즘을 도입 할 수 있습니다, 한 국가의 규정 또는 계약에 따라 필요한 개인 정보 영향 평가 )도 다른 국가에서도 사용할 수 있습니다. 각 국가의 AI 규정이 아직 채택되지 않았기 때문에 현재 상호 운용성의 특성에 대해 논의하기에는 아직 이르지만, 향후 상호 운용성을 달성하기 위해 위에서 설명한 사례 공유 및 표준화를 촉진하는 것이 유리할 것입니다.
민첩한 AI 거버넌스로
모범 사례 공유, 공유 표준 설정 및 향후 상호 운용성 보장 형태의 국제 협력은 과거 여러 분야에서 반복 된 전형적인 패턴으로 보일 수 있습니다. 그러나 AI 거버넌스 분야에서 특별한주의를 기울여야합니다.
첫째, 정부 간 협력을 통해서만 충분한 AI 거버넌스를 달성 할 수는 없습니다. AI 시스템의 기술적 복잡성과 AI가 인간 자율성과 경제에 미치는 영향의 규모 (을 긍정적이고 부정적인 방식으로 )으로 고려할 때 다중 이해 관계자 협업을 갖는 것이 중요합니다. 이해 관계자에는 기술, 법률, 경제 및 관리 전문가뿐만 아니라 AI 거버넌스의 궁극적 인 수혜자로서 개인 및 커뮤니티도 포함됩니다.
둘째, AI 기술의 발전 속도를 고려할 때 AI 거버넌스 방법은 민첩하고 지속적으로 평가 및 업데이트되어야합니다. 업데이트시 기존 법률과 지침을 고려할뿐만 아니라 실제 요구를 충족시키기 위해 규제 시스템 자체의 구조를 조정해야합니다, 실제 문제를 해결하기 위해 법률이 제공되어야하는 정도 및 어떤 지침이 필요한지와 같은.
일본 정부는이 다중 이해 관계자 및 유연한 거버넌스 프로세스를 “ 민첩 거버넌스 ”로 명명했으며이를 디지털 사회의 기본 정책으로 자리 매김했습니다. METI는 다음에 발표 된 세 가지 보고서에서 가장 중요한 개념을 요약합니다 2020, 2021, 2022. AI 원칙 이행을위한 일본의 거버넌스 지침 및 이전 섹션에서 소개 된 디지털 변환의 개인 정보 보호를위한 기업 거버넌스 가이드 북도이 개념을 기반으로합니다. 또한 위에서 언급 한 포괄적 인 규제 개혁 조직인 Digital Rincho는 민첩한 거버넌스 원칙을 핵심 기반 중 하나로 채택했습니다.
일본 정부는이 다중 이해 관계자 및 유연한 거버넌스 프로세스를 “ 민첩한 거버넌스 ”로 명명했으며이를 디지털화 된 사회의 기본 정책으로 자리 매김했습니다.
AI 거버넌스에 대한 명확하고 일관된 비전과 성공적인 AI 규제 개혁, 그리고 우수한 거버넌스 관행을 만들고 표준 설정에 기여하기위한 기업의 다양한 이니셔티브로 인해, 일본은 좋은 AI 거버넌스에서 G7 협력을 발전시킬 유망한 입장을 가지고 있습니다.
히로키 하부 카 전략 및 국제 연구 센터의 AI 거버넌스 프로젝트의 비거주자입니다.
이 보고서는 CSIS에 대한 일반적인 지원으로 가능합니다. 이 보고서에는 외부 후원이 없었습니다.
|