논평: AI가 잘못되면 누구에게 책임을 물어야 합니까?
싱가포르는 2030년까지 인공 지능의 리더가 되기를 원합니다. NUS Center for Biomedical Ethics의 Anantharaman Muralidharan은 AI가 인간의 신뢰를 얻는 데 필요한 방법을 살펴봅니다.
https://www.channelnewsasia.com/commentary/artificial-intelligence-liable-responsible-things-go-wrong-malfunction-user-trust-3241151
싱가포르: 인공 지능 이나 알고리즘 이 오작동 할 때 누가 책임을 져야 한다고 생각 하십니까? 프로그래머, 제조업체 또는 사용자입니까?
싱가포르는 2030년까지 인공 지능(AI) 분야의 글로벌 리더 가 될 계획 입니다. 여기에는 한편으로는 다양한 환경에서 AI의 광범위한 배치와 이러한 AI 솔루션에 대한 광범위한 신뢰가 포함됩니다.
신뢰가 잘 형성되어야 한다는 것은 분명하지만 신뢰가 잘 형성된다는 것은 무엇을 의미합니까? 확실히 이것의 한 부분은 AI가 일을 안정적으로 자주 수행하는 것입니다. 그러나 그것만으로는 충분하지 않습니다.
차를 고치고 싶은 정비사를 생각해 보십시오. 그가 아무리 자주 차를 제대로 고쳐도 그가 실수를 했을 때 책임을 지지 않는다면 당신은 그가 당신의 차를 고치는 것을 믿을 수 없을 것입니다. 책임을 질 수 있는 능력과 의지가 신뢰할 수 있는 핵심 요소이기 때문입니다.
그러나 이것은 수수께끼를 만듭니다. 결국 AI 솔루션은 – 적어도 향후 7년 동안 우리가 보게 될 종류의 것 – 단지 고도로 정교한 프로그램일 뿐입니다. 그들은 컴퓨터나 계산기가 할 수 있는 것보다 더 이상 실수에 대해 책임을 질 수 없습니다.
AI 및 인지 기술
우리가 계산기와 컴퓨터, 그리고 우리의 생각을 자동화하는 다른 기술과 어떻게 상호 작용하는지 자세히 살펴보도록 합시다. 우리는 게임 과 인터넷을 통한 다른 사람과의 연결에서 워드 프로세싱, 프리젠테이션 및 계산 수행에 이르기까지 다양한 이유로 컴퓨터를 사용합니다 .
이러한 경우에 컴퓨터를 사용하면 컴퓨터를 신뢰하는 것으로 간주됩니까? 그렇다면 이러한 경우에 컴퓨터를 신뢰하는 이유는 무엇입니까? 결국, 컴퓨터는 어느 정도 규칙적으로 충돌합니다.
아마도 계산을 수행하도록 요구하는 경우를 제외하고 대부분의 경우 컴퓨터가 예상대로 수행하고 있는지 즉시 확인할 수 있기 때문에 컴퓨터를 신뢰합니다. 마우스를 움직이면 그에 따라 커서도 움직입니다. 키를 누르면 해당 문자 또는 숫자가 화면에 나타납니다.
해당 버튼을 클릭하면 컴퓨터 게임의 플레이어 캐릭터가 그에 따라 움직입니다. 제대로 작동하지 않으면 화면이 멈추거나 예기치 않은 일이 즉시 발생합니다.
많은 복잡한 작업이 백그라운드에서 발생하더라도 컴퓨터가 작동하는지 여부를 즉시 확인할 수 있습니다.
계산 사례는 어떻습니까? 계산기나 휴대폰의 계산기 기능 또는 스프레드시트의 다양한 기능을 사용하는 경우를 고려하십시오. 이런 경우에 우리는 왜 대답을 받아들이는가?
우리 가 이 점수에서 계산기와 컴퓨터 를 신뢰하는 그럴듯한 이유 중 하나 는 제조업체와 프로그래머를 신뢰하기 때문입니다.
다양한 수학적 연산을 수행하는 것은 분명히 알고리즘에 따라 기호를 맹목적으로 조작하는 방법만 아는 기계가 수행할 수 있는 일이라고 생각합니다. 이러한 기호가 의미하는 바에 대한 인간의 판단이나 지식이 필요하지 않습니다.
대조적으로 AI가 수행하기를 원하는 많은 작업에는 판단이 필요합니다. 한 가지 예를 들자면, 치료 권장 사항 및 의학적 진단에는 사람들이 다양한 출처에서 정보를 수집하고 복잡한 방식으로 결합하는 판단 요소가 있습니다.
주어진 진단을 내리는 데 적용될 수 있는 모든 요소를 명시적으로 설명하는 것은 간단한 문제가 아닙니다. 이것은 화물 계획, 시 서비스, 교육 및 국경 보안과 같은 영역에서 많은 결정에 해당될 가능성이 높습니다. 이러한 복잡성은 제조업체와 프로그래머가 주어진 오작동을 방지하기 위해 의미 있게 할 수 있는 일이 거의 없음을 의미합니다.
백색 상자, 까만 상자 또는 회색 상자
설명을 위해 AI 모델의 한 종류인 White-box 또는 Interpretable AI를 고려하십시오. 이러한 유형의 AI는 매우 복잡한 컴퓨터 프로그램으로 생각할 수 있습니다.
이러한 알고리즘이 일을 올바르게 처리하려면 프로그래머는 모든 경우를 예상하고 각 상황에서 어떤 고려 사항이 관련이 있고 어느 정도 관련이 있는지 지정하는 방법을 알아야 합니다. 언급한 바와 같이 이것은 너무 어려우므로 실수를 한 경우 프로그래머에게 책임을 묻는 것은 합리적이지 않습니다.
대신 블랙박스 AI 모델 을 고려하십시오 . 이러한 모델에는 프로그래머도 이해하기에는 너무 복잡한 알고리즘이 포함됩니다. 이는 프로그래머가 알고리즘을 명시적으로 프로그래밍하지 않기 때문입니다.
대신, 알고리즘은 많은 경우에 대해 훈련됩니다. 많은 경우에 AI는 주어진 입력 집합에 대해 올바른 출력이 무엇인지 알려줍니다. AI는 입력과 출력을 일치시키는 자체 결정 규칙을 제시합니다.
이 블랙박스 모델의 희망은 우리가 판단을 내릴 때 의사 결정의 미묘함을 포착한다는 것입니다. 단점은 AI가 어떻게 결정을 내리는지 알 수 없다는 것입니다.
또한 AI 솔루션이 훈련되는 방식을 고려할 때 우리가 가진 모든 편향을 물려받습니다. 예를 들어 OpenAI의 ChatGPT 를 고려하십시오. 프로그래머의 최선의 노력에도 불구하고 AI는 여전히 인종 차별 콘텐츠를 생성할 수 있습니다.
두 세계의 장점을 모두 달성하려고 시도하는 설명 가능 또는 회색 상자 AI라는 다른 모델이 있습니다. 블랙박스 모델을 기반으로 시작한 다음 다른 AI를 사용하여 첫 번째 AI의 결정을 설명합니다.
이를 통해 특정 결정이 내려진 이유를 알 수 있습니다. 그러나 우리는 여전히 AI가 어떻게 결정할지 미리 예측할 수 없습니다.
블랙박스 AI가 어떤 경우에 특정 고려 사항에 가중치를 부여한다고 해서 AI가 유사한 경우에 해당 고려 사항에 가중치를 부여한다는 의미는 아닙니다. 그리고 기본 AI는 여전히 블랙박스 모델이기 때문에 AI가 오작동하지 않도록 훈련하는 방법을 알 수 없습니다.
사용자 책임
이 모든 것은 제조업체와 프로그래머 가 AI 오작동에 대해 책임을 질 수 없음을 시사합니다(심각한 과실의 경우 제외). 그러나 그들이 아니라면 누가?
남은 그럴듯한 옵션 중 하나는 사용자 자신입니다. 어떤 면에서 이것은 직관적인 의미가 있습니다. 결국, AI가 없으면 자신의 결정에 대한 책임을 져야 하는 것은 이러한 AI 사용자가 될 것입니다.
기술은 사람들이 책임을 회피하는 방법이 될 수 없습니다. 그러나 이것은 우리가 배포하는 AI의 종류와 배포 방법에 영향을 미칩니다.
첫째, 인간은 루프에 있어야 합니다. 인간은 이러한 시나리오에서 최종 의사 결정자여야 합니다. AI의 결과는 결코 결정 그 자체가 될 수 없으며 단지 권장 사항일 뿐입니다.
AI가 잘못된 결정에 따라 행동하는 것을 사용자가 막을 수 없다면 AI 오작동에 대한 책임을 사용자에게 묻는 것은 이치에 맞지 않습니다. 따라서 완전 자율주행차는 테이블에서 제거되어야 할 수도 있습니다.
결국 윤리적으로 허용되려면 운전자가 언제든지 개입할 수 있어야 합니다. 도로에 주의를 기울여야 합니다. 하지만 이미 도로에 주의를 기울이고 있다면 스스로 차를 운전하는 것이 나을 수도 있습니다.
둘째, 인간이 계속 정보를 공유해야 할 뿐만 아니라 사람들이 AI의 권장 사항을 따를지 여부를 결정할 방법이 없다면 AI는 쓸모가 없을 것입니다. 게다가 사람들이 단순히 AI의 결정에 고무 스탬프를 찍는다면 루프에 계속 머무르는 것은 무의미할 것입니다. 이는 블랙박스 모델도 문제가 되지 않는다는 것을 의미합니다.
AI의 올바른 종류
AI에 대한 우리의 신뢰는 사용자를 신뢰하는 문제입니다. 결국 AI는 이유를 이해하지 못하고 이에 제대로 대응한다고 할 수 없습니다. 중요한 것은 AI가 실수에 대해 책임을 질 수 없다는 것입니다.
AI가 신뢰할 수 있으려면 인간 사용자가 건전한 결정을 내리는 데 도움을 줄 수 있는 종류여야 합니다. 싱가포르가 AI 수용을 추진함에 따라 사람과 기술을 신뢰할 수 있게 만드는 요소에 대한 올바른 이해를 바탕으로 정보를 제공하는 방식으로 이를 수행하는 것이 중요합니다.
Anantharaman Muralidharan은 싱가포르 국립대학교 Yong Loo Lin 의과대학 생의학 윤리 센터 연구원입니다.
출처: CNA/aj