제네바, 2024년 1월 18일 – 세계보건기구(WHO)는 빠르게 성장하는 생성 인공지능(AI) 기술의 한 유형인 대형 다중 모델(LMM)의 윤리 및 거버넌스에 대한 새로운 지침을 발표합니다.
이 지침은 인구의 건강을 증진하고 보호하기 위한 LMM의 적절한 사용을 보장하기 위해 정부, 기술 회사 및 의료 제공자가 고려해야 할 40개 이상의 권장 사항을 설명합니다.
LMM은 텍스트, 비디오 및 이미지와 같은 하나 이상의 유형의 데이터 입력을 수용하고 입력된 데이터 유형에 국한되지 않는 다양한 출력을 생성할 수 있습니다. LMM은 인간 의사소통의 모방과 명시적으로 프로그래밍되지 않은 작업을 수행하는 능력이 독특합니다. 수행하다. LMM은 역사상 어떤 소비자 애플리케이션보다도 빠르게 채택되어 왔으며, ChatGPT, 바드 및 버트와 같은 여러 플랫폼이 2023년에 대중의 의식에 진입했습니다.
세계보건기구 최고과학자인 제레미 파러 박사는 "세대 AI 기술은 건강 관리를 개선할 가능성이 있지만 이러한 기술을 개발, 규제 및 사용하는 사람들이 관련 위험을 식별하고 완전히 설명할 경우에만 가능합니다."라고 말했습니다. "우리는 더 나은 건강 결과를 얻고 지속되는 건강 불평등을 극복하기 위해 LMM의 설계, 개발 및 사용을 관리하기 위한 투명한 정보와 정책이 필요합니다."
잠재적인 유익성 및 위해성
그 WHO의 새로운 지침은 건강을 위한 LMM의 5가지 광범위한 적용을 설명합니다.
환자의 서면 질의에 대한 답변 등 진단 및 진료
증상 조사 및 치료 등 환자 유도에 의한 사용
전자건강기록 내 환자방문을 문서화하고 요약하는 등 사무 및 행정업무
실습생에게 모의 환자 조우를 제공하는 것을 포함한 의료 및 간호 교육 및
과학적 연구와 약물 개발, 새로운 화합물을 식별하는 것을 포함합니다.
LMM이 특정 건강과 관련된 목적으로 사용되기 시작하는 동안, 거짓, 부정확, 편향 또는 불완전한 진술을 생성할 수 있는 문서화된 위험도 있으며, 이는 건강 결정을 내리는 데 있어 그러한 정보를 사용하는 사람들에게 해를 끼칠 수 있습니다. 또한 LMM은 인종, 민족, 혈통, 성별, 성 정체성 또는 연령에 따라 품질이 떨어지거나 편향된 데이터에 대해 교육을 받을 수 있습니다.
이 지침은 또한 최고의 성능을 발휘하는 LMM들의 접근성과 경제성과 같은 의료 시스템에 대한 보다 광범위한 위험들도 상세히 설명하고 있습니다. LMM들은 또한 의료 전문가들과 환자들에 의한 '자동화 편향'을 조장할 수 있으며, 이로 인해 그렇지 않았다면 확인되었을 수도 있는 오류들이 간과되거나 어려운 선택들이 LMM에게 부적절하게 위임되었을 수도 있습니다. LMM들은, 다른 사람들처럼 AI의 형태는 또한 환자 정보 또는 이러한 알고리즘의 신뢰성과 의료 서비스 제공을 위험에 빠뜨릴 수 있는 사이버 보안 위험에 취약합니다.
안전하고 효과적인 LMM을 만들기 위해 WHO는 이러한 기술의 개발 및 배치의 모든 단계에서 정부, 기술 회사, 의료 제공자, 환자 및 시민 사회 등 다양한 이해 관계자의 참여가 필요함을 강조합니다.
"모든 국가의 정부는 LMM과 같은 AI 기술의 개발과 사용을 효과적으로 규제하기 위한 노력을 협력적으로 이끌어야 합니다."라고 WHO 과학 부서의 디지털 건강 및 혁신 책임자인 알랭 라브리케 박사가 말했습니다.
주요 권장사항
새로운 WHO 지침에는 LMM의 개발 및 배치를 위한 표준을 수립할 일차적인 책임이 있는 정부에 대한 권고와 공중 보건 및 의료 목적을 위한 통합 및 사용이 포함됩니다. 예를 들어, 정부는 다음과 같이 해야 합니다.
사용자가 접근의 대가로 윤리적 원칙과 가치를 준수하도록 요구하는 공공, 민간 및 비영리 부문의 개발자가 접근할 수 있는 컴퓨팅 능력 및 공공 데이터 세트를 포함한 비영리 또는 공공 인프라에 투자하거나 제공합니다.
법, 정책 및 규정을 사용하여 의료 및 의료에 사용되는 LMM 및 애플리케이션이 AI 기술과 관련된 위험 또는 이점에 관계없이 예를 들어 개인의 존엄성, 자율성 또는 사생활에 영향을 미치는 윤리적 의무 및 인권 기준을 충족하는지 확인합니다.
기존 또는 새로운 규제 기관을 지정하여 의료 또는 의약품에 사용하기 위한 LMM 및 애플리케이션을 자원이 허용하는 대로 평가하고 승인합니다.
LMM이 대규모로 배치된 경우 독립적인 제3자가 데이터 보호 및 인권을 포함하여 릴리스 후 감사 및 영향 평가를 의무화합니다. 감사 및 영향 평가는 공표되어야 하며, 결과 및 영향을 포함해야 합니다. 예를 들어 연령, 인종 또는 장애를 포함하여 사용자 유형에 따라 세분화됩니다.
또한 이 지침에는 LMM 개발자를 위한 다음과 같은 주요 권장 사항이 포함되어 있으며, 이 권장 사항은 다음과 같습니다.
LMM은 과학자와 엔지니어만 설계한 것이 아닙니다. 의료 제공자, 과학 연구자, 의료 전문가 및 환자를 포함한 잠재적 사용자 및 모든 직간접적 이해관계자는 AI 개발 초기 단계부터 체계적이고 포괄적이며 투명한 설계에 참여해야 하며 윤리적 문제를 제기할 수 있는 기회가 주어져야 합니다. 음성 문제를 발생시키고 고려 중인 AI 애플리케이션에 대한 입력을 제공합니다.
LMM은 의료 시스템의 용량을 개선하고 환자의 관심을 증진시키기 위해 필요한 정확성과 신뢰성을 갖춘 잘 정의된 작업을 수행하도록 설계되었습니다. 개발자는 또한 잠재적인 2차 결과를 예측하고 이해할 수 있어야 합니다.
편집자주
대형 멀티모달 모델에 대한 건강 지침을 위한 AI의 윤리 및 거버넌스에 관한 새로운 문서는 2021년 6월에 발표된 WHO의 지침을 기반으로 합니다. 여기에서 출판물에 액세스합니다.
편집기 참고
WHO는 2024년 1월 19일 금요일 12:00-13:00 CET에서 건강을 위한 대규모 다중 모델의 윤리 및 거버넌스에 관한 지침 웹 세미나를 주최할 예정입니다. 여기에 등록하세요.
스피커:
• 제레미 파라, WHO 수석 과학자
• 알랭 Labrique & Sameer Pujari, Digital Health & Innovation, WHO