이 지침에는 인구의 건강을 증진하고 보호하기 위해 LMM의 적절한 사용을 보장하기 위해 정부, 기술 회사 및 의료 서비스 제공자가 고려해야 할 40개 이상의 권장 사항이 요약되어 있습니다.
LMM은 텍스트, 비디오, 이미지 등 하나 이상의 데이터 유형을 입력받을 수 있으며, 입력된 데이터 유형에 국한되지 않고 다양한 출력을 생성할 수 있습니다. LMM은 인간의 의사소통을 모방하고 명시적으로 프로그래밍되지 않은 작업을 수행하는 능력이 독특합니다. LMM은 ChatGPT, Bard 및 Bert와 같은 여러 플랫폼이 2023년에 대중의 의식에 진입하면서 역사상 어떤 소비자 애플리케이션보다 빠르게 채택되었습니다.
WHO 수석 과학자인 Jeremy Farrar 박사는 “제너레이티브 AI 기술은 의료를 개선할 수 있는 잠재력을 가지고 있지만 이러한 기술을 개발, 규제 및 사용하는 사람들이 관련 위험을 식별하고 완전히 설명하는 경우에만 가능합니다.”라고 말했습니다. "우리는 더 나은 건강 결과를 달성하고 지속적인 건강 불평등을 극복하기 위해 LMM의 설계, 개발 및 사용을 관리하기 위한 투명한 정보와 정책이 필요합니다."
잠재적인 이익과 위험
새로운 WHO 지침에는 건강을 위한 LMM의 5가지 광범위한 적용이 요약되어 있습니다.
환자의 서면 질의에 대한 응답 등 진단 및 임상 진료
증상 조사 및 치료 등 환자 주도적 사용
전자 건강 기록 내에서 환자 방문을 문서화하고 요약하는 등의 사무 및 행정 업무
훈련생에게 시뮬레이션된 환자와의 만남을 제공하는 것을 포함한 의료 및 간호 교육
새로운 화합물 식별을 포함한 과학적 연구 및 약물 개발.
LMM이 특정 건강 관련 목적으로 사용되기 시작했지만 허위, 부정확, 편견 또는 불완전한 진술을 생성하여 건강 관련 결정을 내릴 때 그러한 정보를 사용하는 사람들에게 해를 끼칠 수 있는 위험도 문서화되어 있습니다. 또한 LMM은 인종, 민족, 조상, 성별, 성 정체성 또는 연령에 따라 품질이 낮거나 편향된 데이터에 대해 교육을 받을 수 있습니다.
또한 이 지침은 최고의 성능을 발휘하는 LMM의 접근성 및 경제성과 같은 의료 시스템에 대한 광범위한 위험을 자세히 설명합니다. LMMS는 또한 의료 전문가와 환자의 '자동화 편향'을 조장할 수 있으며, 이로 인해 그렇지 않으면 식별될 수 있는 오류가 간과되거나 어려운 선택이 LMM에 부적절하게 위임됩니다. 다른 형태의 AI와 마찬가지로 LMM도 환자 정보나 이러한 알고리즘의 신뢰성, 보다 광범위한 의료 서비스 제공을 위험에 빠뜨릴 수 있는 사이버 보안 위험에 취약합니다.
안전하고 효과적인 LMM을 만들기 위해 WHO는 감독 및 규제를 포함하여 해당 기술의 개발 및 배포의 모든 단계에서 정부, 기술 회사, 의료 서비스 제공자, 환자 및 시민 사회 등 다양한 이해관계자의 참여가 필요함을 강조합니다.
WHO 과학 부문 디지털 보건 및 혁신 담당 이사인 Alain Labrique 박사는 “모든 국가의 정부는 LMM과 같은 AI 기술의 개발 및 사용을 효과적으로 규제하기 위한 노력을 협력적으로 주도해야 합니다.”라고 말했습니다.
주요 권장사항
새로운 WHO 지침에는 LMM의 개발 및 배포, 공중 보건 및 의료 목적을 위한 통합 및 사용에 대한 표준을 설정하는 주요 책임이 있는 정부에 대한 권장 사항이 포함되어 있습니다. 예를 들어, 정부는 다음을 수행해야 합니다.
공공, 민간 및 비영리 부문의 개발자가 액세스할 수 있는 컴퓨팅 성능 및 공개 데이터 세트를 포함하여 비영리 또는 공공 인프라에 투자하거나 제공합니다. 입장.
AI 기술과 관련된 위험이나 이점에 관계없이 의료 및 의학에 사용되는 LMM 및 애플리케이션이 개인의 존엄성, 자율성 또는 개인의 존엄성에 영향을 미치는 윤리적 의무 및 인권 표준을 충족하도록 법률, 정책 및 규정을 사용합니다. 은둔.
리소스가 허용하는 대로 기존 또는 신규 규제 기관을 지정하여 의료 또는 의학 분야에 사용하기 위한 LMM 및 애플리케이션을 평가하고 승인합니다.
LMM이 대규모로 배포되는 경우 독립적인 제3자에 의한 데이터 보호 및 인권을 포함하여 필수 출시 후 감사 및 영향 평가를 도입합니다. 감사 및 영향 평가는 공개되어야 하며 연령, 인종, 장애 등 사용자 유형별로 분류된 결과와 영향을 포함해야 합니다.
또한 이 지침에는 다음을 보장해야 하는 LMM 개발자를 위한 다음과 같은 주요 권장 사항이 포함되어 있습니다.
LMM은 과학자와 엔지니어만이 설계한 것이 아닙니다. 의료 제공자, 과학 연구자, 의료 전문가 및 환자를 포함한 잠재적 사용자와 모든 직간접 이해관계자는 AI 개발의 초기 단계부터 구조화되고 포용적이며 투명한 설계에 참여해야 하며 윤리적 문제를 제기하고 우려 사항을 제기할 수 있는 기회를 제공해야 합니다. 고려 중인 AI 애플리케이션에 대한 입력을 제공합니다.
LMM은 의료 시스템의 역량을 향상하고 환자의 관심을 향상시키기 위해 필요한 정확성과 신뢰성으로 잘 정의된 작업을 수행하도록 설계되었습니다. 또한 개발자는 잠재적인 2차 결과를 예측하고 이해할 수 있어야 합니다.
편집자 주
건강을 위한 AI의 윤리 및 거버넌스에 관한 새 문서는 대규모 다중 모드 모델에 대한 지침은 2021년 6월에 발표된 WHO의 지침을 기반으로 합니다. 여기에서 간행물에 액세스하세요.