생성적 AI(gen AI)의 급속한 발전으로 인해 전 세계 규제 당국은 기술의 잠재적 이점을 유지하면서 기술의 안전성을 이해, 제어 및 보장하기 위해 경쟁하고 있습니다. 산업 전반에 걸쳐 Gen AI 채택은 위험 및 규정 준수 기능에 대한 새로운 과제를 제시했습니다. 즉, 진화하고 고르지 않은 규제 프레임워크 속에서 이 신기술 사용의 균형을 맞추는 방법입니다.
사이드바
저자 소개
정부와 규제 기관이 이러한 제어 환경이 어떤 모습이어야 하는지 정의하려고 시도함에 따라 개발 접근 방식은 단편화되고 종종 잘못 정렬되어 조직의 탐색을 어렵게 만들고 상당한 불확실성을 야기합니다.
이 기사에서는 AI와 Gen AI의 위험과 이 기술이 규제 조사를 받는 이유를 설명합니다. 또한 우리는 위험 기능이 고르지 않고 변화하는 규칙 제정 환경을 탐색할 수 있도록 돕는 전략적 로드맵을 제공합니다. 이는 AI 세대뿐만 아니라 모든 인공 지능에 초점을 맞추고 있습니다.
Gen AI에 규제가 필요한 이유는 무엇입니까?
AI의 획기적인 발전인 Gen AI는 대중의 관심을 빠르게 사로잡았고, ChatGPT는 단 5일 만에 사용자 100만 명에 도달하는 등 가장 빠르게 성장하는 플랫폼 중 하나가 되었습니다. 생산성 향상, 지식에 대한 신속한 접근, 연간 2조 6천억~4조 4천억 달러의 예상되는 총 경제 효과를 약속하는 광범위한 Gen AI 사용 사례를 고려할 때 이러한 가속화는 놀라운 일이 아닙니다 .1
그러나 AI와 Gen AI 채택을 올바르게 하려면 경제적 인센티브가 있습니다. 이러한 시스템을 개발하는 회사는 자신이 개발하는 플랫폼이 충분히 다듬어지지 않으면 결과에 직면할 수 있습니다. 그리고 실수로 인해 비용이 많이 들 수 있습니다. 예를 들어, 주요 AI 기업은 플랫폼이 환각(AI가 허위 또는 비논리적인 정보를 생성하는 경우)으로 밝혀졌을 때 상당한 시장 가치를 잃었습니다.
Gen AI의 확산으로 인해 위험에 대한 가시성이 높아졌습니다. Gen AI의 주요 관심사에는 기술의 모델과 시스템이 개발되는 방식과 기술이 사용되는 방식이 포함됩니다.
일반적으로 Gen AI 시스템의 기능, 이를 훈련하는 데 사용되는 데이터, 편견 및 공정성 문제, 잠재적 지적 재산권 침해, 개인 정보 침해 가능성, 제3자 위험 및 보안에 대한 투명성 부족에 대한 우려가 있습니다. 우려.
오류가 있거나 조작된 출력, 유해하거나 악의적인 콘텐츠 등 이러한 우려 사항에 허위 정보를 추가하면 규제 당국이 잠재적인 피해를 완화하려고 노력하는 것은 놀라운 일이 아닙니다. 규제 기관은 Gen AI 개발 또는 사용에 참여하는 회사에 대한 법적 확실성을 확립하려고 노력합니다. 한편, 규칙 제정자들은 알려지지 않은 영향에 대한 두려움 없이 혁신을 장려하기를 원합니다.
목표는 국제 무역과 데이터 전송을 촉진하는 조화로운 국제 규제 표준을 확립하는 것입니다. 이 목표를 추구하면서 합의가 이루어졌습니다. Gen AI 개발 커뮤니티는 가능한 한 빨리 기술 개발에 대한 규제 통제를 옹호하는 데 앞장섰습니다. 문제는 규제를 진행할 것인지가 아니라 어떻게 진행할 것인지이다.
현재 AI에 대한 국제 규제 환경
현재까지 포괄적인 AI 또는 Gen AI 규정을 통과시킨 국가는 없지만, 선도적인 입법 노력에는 브라질, 중국, 유럽 연합, 싱가포르, 한국 및 미국이 포함됩니다. 여러 국가에서 취하는 접근 방식은 기존 데이터 보호 및 사이버 보안 규정(유럽 연합 및 한국)이 지원하는 광범위한 AI 규제부터 부문별 법률(미국) 및 보다 일반적인 원칙 또는 지침 기반 접근 방식(브라질, 싱가포르, 미국). 각 접근 방식에는 고유한 장점과 단점이 있으며 일부 시장은 시간이 지남에 따라 원칙 기반 지침에서 엄격한 입법으로 전환할 것입니다(그림 1).
투명도. 규제 기관은 AI 출력의 추적성과 명확성을 추구하고 있습니다. 그들의 목표는 사용자가 AI 시스템에 참여할 때 정보를 제공하고 사용자의 권리와 시스템의 기능 및 제한 사항에 대한 정보를 제공하는 것입니다.
인간의 기관과 감독. 이상적으로 AI 시스템은 사람들에게 봉사하고, 인간의 존엄성과 개인의 자율성을 유지하며, 인간이 적절하게 제어하고 감독할 수 있는 방식으로 기능하는 도구로 개발 및 사용되어야 합니다.
책임. 규제 기관은 AI 시스템과 관련된 책임, 책무성 및 잠재적 시정에 대한 인식을 보장하는 메커니즘을 원합니다. 실제로 그들은 최고 경영진의 동의, 조직 전체의 교육, 개인의 책임에 대한 인식을 추구하고 있습니다.
기술적 견고성과 안전성. 규칙 입안자들은 AI 시스템이 예상대로 작동하고 안정적으로 유지되며 사용자 오류를 수정할 수 있음을 의미하는 강력한 시스템을 보장하여 의도하지 않거나 예상치 못한 피해를 최소화하려고 합니다. 이러한 기준을 충족하지 못하는 문제를 해결하기 위한 대체 솔루션과 교정 방법이 있어야 하며, 악의적인 제3자가 시스템을 조작하려는 시도에 대해 탄력성을 갖춰야 합니다.
다양성, 차별금지, 공정성입니다. 규제 기관의 또 다른 목표는 AI 시스템에 편견이 없고 그 결과가 사람들을 차별하거나 부당하게 대우하지 않도록 하는 것입니다.
개인 정보 보호 및 데이터 거버넌스. 규제 기관은 품질과 무결성 측면에서 높은 기준을 충족하는 데이터를 처리하면서 기존 개인 정보 보호 및 데이터 보호 규칙을 따르는 AI 시스템의 개발 및 사용을 원합니다.
사회적, 환경적 웰빙. 개인, 사회 및 민주주의에 대한 장기적인 영향을 지속적으로 모니터링하고 평가하여 모든 AI가 지속 가능하고 환경 친화적(예: 에너지 사용 측면에서)이며 모든 사람에게 이익이 되도록 보장하려는 강한 바람이 있습니다.
AI 지도 원칙의 일부 공통성에도 불구하고 구현 및 정확한 표현은 규제 기관 및 지역에 따라 다릅니다. 많은 규칙은 여전히 새롭기 때문에 자주 업데이트되는 경향이 있습니다(그림 2). 이로 인해 조직은 장기적인 AI 전략을 계획하면서 규정을 탐색하는 것이 어려워집니다.
조직에서는 어떤 AI 규정이 나올지 지켜보고 싶은 유혹을 느낄 수도 있습니다. 하지만 지금은 행동해야 할 때입니다. 조직이 신속하게 조치를 취하지 않으면 큰 법적, 평판, 조직적, 재정적 위험에 직면할 수 있습니다. 이탈리아를 포함한 몇몇 시장에서는 개인 정보 보호 문제, 여러 조직 및 개인이 제기한 저작권 침해 소송, 명예 훼손 소송으로 인해 이미 ChatGPT를 금지했습니다.
과속방지턱이 더 많을 가능성이 높습니다. AI의 부정적 영향이 널리 알려지고 대중화되면서 대중의 우려도 커지고 있다. 이는 결국 AI를 만들거나 사용하는 기업에 대한 대중의 불신을 불러일으켰습니다.
이 단계에서 실수를 하면 비용이 많이 들 수도 있습니다. 예를 들어, 유럽 연합에서 제안한 AI 규정에 따르면 조직은 법 집행으로 인해 연간 전 세계 매출의 최대 7%에 해당하는 벌금을 물게 될 수 있습니다. 또 다른 위협은 주가 하락, 고객 손실 또는 고객 확보 둔화로 이어질 수 있는 고객 또는 투자자 신뢰 하락으로 인한 재정적 손실입니다. AI에 대한 올바른 거버넌스와 조직 모델이 조기에 구축되지 않으면 나중에 규제 변경, 데이터 침해 또는 사이버 보안 사고로 인해 수정이 필요할 수 있다는 사실로 인해 빠르게 움직이려는 인센티브가 높아집니다. 사후에 시스템을 수정하는 것은 비용이 많이 들고 조직 전체에서 일관되게 구현하기 어려울 수 있습니다.
이러한 선제적 조치는 많은 공통점을 공유하므로 기존 데이터 보호 또는 개인 정보 보호 및 사이버 노력에서 비롯된 네 가지 주요 영역으로 그룹화될 수 있습니다.
투명도. 모델의 분류 및 인벤토리를 생성하여 규정에 따라 분류하고, 조직 내부 및 외부 사람들이 명확하게 볼 수 있는 중앙 저장소에 조직 전체의 모든 사용을 기록합니다. 내부 및 외부적으로 AI 및 Gen AI 사용, 기능, 위험 및 제어에 대한 자세한 문서를 작성하고 모델 개발 방법, 발생할 수 있는 위험 및 사용 방법에 대한 명확한 문서를 작성하십시오.
통치. 조직 내에서, 제3자 및 규제 기관 모두에 대한 충분한 감독, 권한 및 책임을 보장하는 AI 및 Gen AI에 대한 거버넌스 구조를 구현합니다. 이 접근 방식에는 AI 및 Gen AI 관리의 모든 역할과 책임에 대한 정의와 AI 및 Gen AI 사용으로 인해 발생할 수 있는 모든 문제를 해결하기 위한 사고 관리 계획 개발이 포함되어야 합니다. 거버넌스 구조는 인력과 시간의 변화를 견딜 수 있을 만큼 강력해야 하며, 진화하는 기술, 비즈니스 우선 순위 및 규제 요구 사항에 적응할 수 있을 만큼 민첩해야 합니다.
데이터, 모델 및 기술 관리. AI와 Gen AI 모두 강력한 데이터, 모델 및 기술 관리가 필요합니다.
데이터 관리. 데이터는 모든 AI 및 Gen AI 모델의 기초입니다. 데이터 입력의 품질은 모델의 최종 출력을 반영합니다. 적절하고 안정적인 데이터 관리에는 데이터 소스에 대한 인식, 데이터 분류, 데이터 품질 및 계보, 지적 재산, 개인 정보 보호 관리가 포함됩니다.
모델 관리. 조직은 AI 및 Gen AI 개발을 위한 강력한 원칙과 가드레일을 설정하고 이를 사용하여 조직의 위험을 최소화하고 모든 AI 및 Gen AI 모델이 공정성과 편견 제어, 적절한 기능, 투명성, 명확성 및 인간 감독 활성화를 유지하도록 보장할 수 있습니다. AI 및 Gen AI의 적절한 사용 및 개발에 대해 전체 조직을 교육하여 위험을 최소화합니다. Gen AI와 관련된 위험을 포함하도록 조직의 위험 분류 체계 및 위험 프레임워크를 개발합니다. AI 및 일반 AI 위험을 모니터링하고 해결하기 위한 적절한 테스트 및 모니터링 메커니즘을 통해 위험 관리에서 역할과 책임을 설정하고 위험 평가 및 제어를 설정합니다. 데이터와 모델 관리 모두 민첩하고 반복적인 프로세스가 필요하므로 개발 프로젝트 시작 시 간단한 체크박스 연습으로 처리해서는 안 됩니다.
사이버 보안 및 기술 관리. 접근 제어, 방화벽, 로그, 모니터링 등을 포함한 강력한 사이버 보안 및 기술을 구축하여 무단 접근이나 오용을 방지하고 잠재적인 사고를 조기에 식별하는 안전한 기술 환경을 보장합니다.
개인의 권리. 사용자 교육: 사용자가 AI 시스템과 상호 작용하고 있음을 인식하고 명확한 사용 지침을 제공합니다. 여기에는 투명성을 제공하고 사용자가 데이터 액세스 방법, 모델 작동 방법 및 탈퇴 방법과 같은 권리를 행사할 수 있도록 하는 연락 창구 설정이 포함되어야 합니다. 마지막으로, AI를 설계하고 사용할 때 사용되는 데이터의 윤리적 영향과 고객에 대한 잠재적 영향을 고려하는 고객 중심 접근 방식을 취하세요. 합법적인 모든 것이 반드시 윤리적인 것은 아니기 때문에 AI 사용에 대한 윤리적 고려 사항의 우선순위를 지정하는 것이 중요합니다.
AI와 세대 AI는 AI 모델 제공자이든 AI 시스템 사용자이든 관계없이 많은 조직에 계속해서 중요한 영향을 미칠 것입니다. 아직 지역과 부문에 걸쳐 조정되지 않고 예측 불가능하다고 느낄 수 있는 빠르게 변화하는 규제 환경에도 불구하고, 현재 AI를 제공하고 사용하는 방법을 개선하는 조직에는 실질적인 이점이 있습니다.
AI와 Gen AI를 신중하게 처리하지 못하면 법적, 평판, 조직적, 재정적 피해를 입을 수 있습니다. 그러나 조직은 투명성, 거버넌스, 기술 및 데이터 관리, 개인 권리에 초점을 맞춰 준비할 수 있습니다. 이러한 영역을 해결하면 미래의 데이터 거버넌스와 위험 감소를 위한 견고한 기반이 마련되고 사이버 보안, 데이터 관리 및 보호, 책임 있는 AI 전반의 운영을 간소화하는 데 도움이 됩니다. 아마도 더 중요한 것은 보호 조치를 채택하면 조직을 신뢰할 수 있는 공급자로 자리매김하는 데 도움이 될 것입니다.
저자 소개
Andreas Kremer 는 McKinsey 베를린 사무소의 파트너입니다. Angela Luget 은 런던 사무소의 파트너이며 Daniel Mikkelsen 은 수석 파트너입니다. Henning Soller 는 프랑크푸르트 사무소의 파트너입니다. Malin Strandell-Jansson 은 스톡홀름 사무소의 수석 지식 전문가입니다. Sheila Zingg 는 취리히 사무실의 컨설턴트입니다.
저자는 이 기사에 기여한 Rachel Lee, Chris Schmitz 및 Angie Selzer에게 감사의 말씀을 전하고 싶습니다.