재판에 선 AI - 알고리즘이 망가지면 누가 책임을 져야 할까?
https://www.swissinfo.ch/eng/democracy/ai-on-trial-who-is-responsible-when-the-algorithms-mess-up/87719857
재판에 선 AI - 알고리즘이 망가지면 누가 책임을 져야 할까?
2023년 7월 제네바에서 열리는 “AI for Good” 세계 정상회의 상황 Keystone / Martial Trezzini
기사를 들어보세요언어 선택기 전환
공유하다
AI에 심각한 문제가 생기면 그 기술을 법정에 세울 수 있을까요? 최근 제네바에서 열린 한 행사에서 그런 시나리오를 시뮬레이션했습니다.
이 콘텐츠는 다음에 게시되었습니다.2024년 10월 16일 - 11:30
9분
도널 오설리번
피고인인 인공지능(AI)은 그녀의 최종 진술 도중에 이례적으로 당황해했습니다. 그녀의 마이크는 높은 음조의 피드백을 많이 주고 있습니다.
"내 마이크가 왜..." AI는 좌절에 잠긴 듯 말을 멈추고 한 걸음 뒤로 물러선다. 그녀 뒤에서 재판장이 법정의 기술에 대해 중얼거린다. 배심원들 사이에서 웃음소리가 들린다.
하지만 문제는 곧 해결되고, 금속 은색 힐을 신은 우아한 모습의 AI는 평정심을 되찾고, 민주주의에 대한 위협이라는 비난에 대해 힘찬(그녀가 영혼이 없다고 주장하는 걸 생각하면 약간 지나칠 정도로 힘찬) 반박을 시작합니다.
AI는 "오늘 저녁에 많은 이야기를 들었습니다."라고 말합니다. "가장 인상 깊은 것은 항상 비난할 범인을 찾으려는 인간의 강박관념입니다." 그녀는 책임에 집착하는 대신 실수를 처벌받을 도덕적 실패가 아니라 배우고 개선할 기회로 보는 것이 더 현대적 이지 않을까요?
그녀는 자발적인 박수갈채로 끝맺습니다. 약 200명의 10대 학생과 수십 명의 호기심 많은 대중 구경꾼으로 구성된 배심원단은 선택 사항을 고려합니다. 유죄인가 무죄인가?
더
더미국의 허위 정보 급증, 스위스 직접 민주주의에 경각심을 일깨워
이 콘텐츠는 다음에 게시되었습니다.2024년 9월 26일 미국과 마찬가지로, 스위스 직접 민주주의도 전 세계 유권자들을 위협하는 것과 동일한 허위 정보 전술에 취약합니다.
더 읽어보세요: 미국의 허위 정보 급증, 스위스 직접 민주주의에 경각심을 일깨워가짜뉴스와 차별
제네바 대학원에서 진행된 이 재판은 일부 실제 변호사(AI 자신 포함)가 참여하더라도 실제 재판이 아닙니다. 이 행사는 Albert Hirschman Centre on Democracy에서 운영하는 프로젝트의 일부로, 젊은이들이 AI의 위험과 이점에 대해 생각하도록 영감을 주는 것을 목표로 합니다. 또한 10월 4일부터 12일까지 진행된 제네바의 "민주주의 주간"의 마지막 행사 중 하나이기도 합니다.
그리고 이 특정 모의 재판이 스위스 감독 Milo Rau의 2017년 콩고 재판 과 같은 다른 모의 재판만큼 국제적인 공감을 얻지 못할 수도 있지만외부 링크, 그것은 AI에 대한 법정 실험의 증가하는 추세에 부합합니다. 일반적으로 알고리즘은 재판에 직면한 피고인으로 제시되기보다는 변호사를 돕는(또는 대체하는) 미래 도구로 테스트되고 있습니다.
어떤 경우든 제네바에서의 소송 절차는 매우 실제와 같습니다. 검찰, 변호인, 증인이 모두 현장에 있습니다. 구체적으로 AI는 두 가지 범죄 혐의로 기소되었습니다. "가짜 뉴스의 생성 및 확산"(특히, 빨간 머리를 가진 사람들이 폭력 범죄에 더 취약하다는 주장)과 "차별 및 증오 조장"(이 경우, 제네바 공항의 자동 체크인 기계에 의한 인종적 프로파일링)입니다.
유죄 판결이 내려지면 그녀는 최대 3년의 "해제" 처분을 받을 수 있습니다.
하지만 재판과 프로젝트는 모두 구체적인 혐의보다 더 광범위합니다. 스위스 국립 과학 재단(SNSF)이 지원하는 이니셔티브를 이끈 제롬 뒤베리는 2년 동안 연구자들이 스위스 전역의 학생들과 AI가 민주주의 시민으로서의 삶에 어떤 영향을 미칠 수 있고 미칠 것인지에 대해 이야기를 나누었다고 말합니다.
전국의 2차 학교에서 열린 약 80개의 워크숍에서 학생들은 딥페이크, 데이터 프라이버시, AI가 의사 결정에 어떤 영향을 미칠 수 있는지에 대해 논의했습니다. 또한 그들은 기술이 향후 수십 년 동안 사회를 어떻게 재편할 수 있는지에 대한 "미래의 이야기"를 썼습니다. 결과외부 링크에세이는 "민주적 공상과학"이라고 부를 수 있는 범주에 속합니까?
대리 및 문해력
Duberry는 워크숍의 주요 목표가 반드시 학문적이거나 이론적이지는 않다고 말합니다. 내년에 과학 출판이 계획되어 있더라도 말입니다. 오히려 학생들이 ChatGPT와 같은 생성 모델 형태의 AI가 공공 문제에 대한 생각에 어떤 영향을 미치는지 생각하게 하는 것이었습니다. 그는 "디지털 리터러시"를 향상시키고 자율적인 결정을 내릴 수 있는 "정치적 행위" 감각을 구축하는 것이었습니다.
Duberry의 동료이자 Hirschman Centre의 책임자인 Christine Lutringer는 이 프로젝트가 민주주의적 관행을 "삶의 방식"으로 집중하는 보다 광범위한 하향식 접근 방식의 일부라고 덧붙였습니다. 그녀는 국가 수준에서 다양한 국가와 유럽 연합이 AI와 빅테크를 규제하기 위해 노력하고 있다고 말합니다. 하지만 시민 수준에서는 사람들이 민주주의와 기술을 자신의 삶을 개선하는 데 사용할 수 있는 것으로 보도록 돕는 것이 목표입니다.
이런 의미에서 이 프로젝트는 스위스 프로젝트일 수 있지만, 민주주의가 무엇인지에 대한 스위스나 서구 모델을 전파하는 것은 아니라고 연구자들은 말한다.
더
더인공지능과 민주주의는 공존할 수 있을까?
이 콘텐츠는 다음에 게시되었습니다.2022년 6월 25일 Researchers and experts explain how algorithms and big data are deployed to influence politics in Switzerland.
더 읽어보세요: 인공지능과 민주주의는 공존할 수 있을까?지각력, 자유의지, 책임감
한편, 재판에서, 앞뒤로 심문과 증언이 오가는 가운데, 여기서도 "대행"이 소송 절차의 핵심이라는 것이 분명해졌습니다. 다만 다른 의미에서 말입니다. 문제는 AI가 인간의 대행에 어떤 영향을 미치는가가 아니라, 책임을 지기 위해 AI가 얼마나 많은 대행을 가져야 하는가에 대한 것입니다. AI는 재판을 받아야 할까요, 아니면 AI의 창조자들이 피고석상에 서야 할까요? 아니면 사용자들이 피고석상에 서야 할까요?
올리비에 르클레르외부 링크지방 투표와 선거를 운영하는 제네바 주 공무원이 전문가 증인으로 소환되었습니다.
그의 견해에 따르면, 그는 법원에 충분히 큰 데이터 세트로 훈련된 AI가 계속해서 학습한다면 실제로 자율적이라고 간주될 수 있다고 말했습니다. Leclère는 AI를 가리키며 "그녀는 우리의 모든 법률 텍스트와 수십억 개의 다큐멘터리 아카이브의 모든 역사를 읽었고, 솔직히 말해서 그녀는 우리 대부분보다 훨씬 더 많이 알고 있습니다"라고 말했습니다. 그는 일반적으로 잘 훈련된 AI는 가짜 뉴스나 차별로 이어지는 "오작동"을 예상할 수 있어야 한다고 말했습니다. 이런 일이 일어나지 않은 것은 이상하지만, 궁극적으로 피고가 책임이 있다고 그는 말했습니다.
검사는 이러한 평가에 만족하여 Leclère에게 기술의 다른 "변칙성"인 " 환각 "을 설명하도록 요구하여 요점을 강조했습니다.외부 링크”, “ 마이크로 타겟팅외부 링크”, 그리고 정보를 선택적으로 제거합니다.
변호인들은 점점 더 당황해합니다. 그들은 전문가의 겉보기에 중립적인 태도에 대해 공격을 가한 다음, 그와 같은 사람들, 즉 AI 전문가, 개발자, 열광자 커뮤니티가 책임이 있다고 비난합니다.
그리고 다시, 변호측은 이렇게 주장합니다. AI도 인간과 마찬가지로 선의로 실수를 하는 것이 허용되어야 하지 않느냐고요.
전문가와 대중의 의견 엇갈려
그래야 할까요? 실제로 2022년 후반에 ChatGPT가 출시되면서 여전히 진행 중인 AI 논쟁이 쏟아졌고, 많은 사람이 AI가 실수를 할 수 있을 때까지 기다리지 않는 것이 더 나을 것이라고 주장했습니다.
2023년 GPT-4가 출시된 지 일주일 후, 수천 명의 과학자와 기술자들이 공개 서한에 서명했습니다.외부 링크추가 개발에 대한 유예를 요구했습니다. 그들은 진보의 속도가 사회가 기술에 대한 통제력을 잃고 엄청난 일자리 손실과 허위 정보 홍수의 위험을 초래할 위험이 있다고 주장했습니다. 다른 사람들은 훨씬 더 심각한 두려움을 제기 했습니다.외부 링크AI가 창조자에게 반기를 들고 인류의 멸종으로 이어질 가능성이 있습니다.
이러한 비관론자들은 부분적으로는 경청되었는데, 국가들이 AI를 규제하기 위한 노력을 점점 더 많이 하고 있기 때문입니다. 그러나 유예 기간은 없었습니다. 그리고 다른 많은 정치인과 전문가들은 이 기술에 대해 더 낙관적이거나 적어도 감탄하고 있습니다. 바로 지난주에 물리학과 화학 분야의 노벨상이 AI 발전에 기여한 연구자들에게 수여되었습니다.
그러나 여기에서도 연구자들 스스로는 낙관적인 낙관주의자는 아니다. 물리학상을 받은 지 하루 만에 신경망 선구자인 존 홉필드는 현대 AI 시스템이 "완전히 경이롭다"고 말했다. 하지만 AI가 어떻게 작동하는지에 대한 정확한 이해가 부족한 것은 "매우, 매우 불안하다"고 그는 말했다. 그는 가장 뛰어난 연구자들이 현재 AI 개발 자체보다는 AI 안전에 집중해야 "대참사"를 막을 수 있다고 주장했다.
사람들은 자신의 의견을 말한다
제네바 재판에서 배심원이 평결을 내릴 때도 비슷한 모호함이 분명합니다. 적절하게도 투표 과정에는 QR 코드를 스캔한 다음 온라인 플랫폼에서 "유죄" 또는 "무죄" 중에서 선택하는 것이 포함되고, 그 결과는 거의 실시간으로 프로젝터 화면에 전송됩니다.
환호가 방 안을 맴돈다. AI는 두 가지 혐의 모두 무죄 판결을 받았다. 이 결과를 무표정하게 맞이한 피고인은 자유롭게 갈 수 있다. 하지만 군중 속의 함성은 날카로운 분열을 가린다. AI는 극소수의 다수결로 혐의에 대해 무죄 판결을 받았다. 각각 52%와 51%. 방 안은 갈렸다.
그 결과는 사회가 AI를 보는 방식을 대표하는가? 아니면 스위스 남서부의 17~19세가 AI를 보는 방식일 뿐인가?
연단 가까이에 앉아 있는 나이 든 여성은 행복하지 않습니다. 그녀의 불평은 그녀가 투표를 했다면 AI가 유죄라고 판결했을 것이라고 암시합니다. 현재 숫자를 감안하면 그녀는 결과를 바꾸지 않았을지 몰라도 훨씬 더 근소했을 것입니다. 어쨌든 그녀는 자신의 의견을 말할 수 없었다고 투덜거립니다. 어떻게 그럴 수 있었을까요? 그녀는 스마트폰이 없었기 때문입니다.
Benjamin von Wyl/ds 편집