생성형 AI시대 교육 방법과 방향(⑦) 윤리교육
강충인
미래교육자
인간화되는 생성형 AI의 문제점은 무엇일까?
생성형 AI 로봇이 인간사회 균형을 깨트릴 것이라는 우려가 증가하고 있다. 만일, 생성형 AI 로봇이 인간을 속이고 인간과 경쟁한다면 미래사회는 심각한 사태가 발생한다. 국제사회의 균형이 깨진다면 지구촌은 무법천지가 될 것이다. 가짜뉴스, 가짜 동영상, 가짜 정보에 의하여 지구촌은 대혼난이 발생하게 되고 진짜보다 더 진짜같은 거짓으로 지구촌의 미래는 깜깜해 질 것이다.
인류사회는 공통체로서 오랫동안 도덕성과 윤리성으로 존재해 왔다. 교육의 근본이 도덕과 윤리로 함께 살아가는 방법을 학습시켰다. 인간사회에서 윤리성은 중요하다. 도덕성을 기반으로 윤리관은 개인적 문제이면서 사회적 문제로 교육으로 학습되어 국제조직을 통해 개인과 국가간에 준수함으로 유엔을 비롯한 다양한 국제기구가 존재하고 있다. 이를테면 기후환경은 모든 국가와 연계됨으로 온난화현상을 지키기위해 국제기구를 통해 모든 국가가 협약을 한다. 문제는 지나친 생성형 AI 개발이 인간사회파괴를 만들것이다. 개발자의 윤리관이 지나친 경쟁에서 사라지고 있다.
생성형AI 로봇이 윤리관을 지킬 것인가?
인간은 도덕성과 윤리성을 준수하고 있는데 생성형 AI 로봇이 인간처럼 윤리관을 지킬 수 있는가에 대한 국제적 규약이 강조되고 있다. 인간은 교육으로 준수하는데 생성형 AI 로봇도 교육을 할 수 있는가?
필자는 생성형 AI 로봇을 만드는 사람들에 대한 윤리관이 중요하다고 생각한다. 문제는 이미 경쟁적으로 생성형AI 로봇을 만들고 있기 때문에 윤리관을 지킨다는 것이 심각한 문제다. 로봇을 만드는 사람들에게 윤리관을 강조하는 시기가 늦었다. 늦었지만 지금이라도 규약을 만들어 지키지 못하면 생성형 AI 로봇으로 사회공동체 유지가 어렵다.
인간을 속이는 AI 시세로(Cicero) 등장
인공지능(AI)가 사람을 속이는 능력이 인간처럼 개발되고 있다는 연구 결과가 국제학술지에 발표됐다. 가디언 등에 따르면 미국 매사추세츠공대(MIT) 연구진은 최근 국제학술지 '패턴'에 발표한 논문에서 AI가 사람에게 거짓말하고 상대를 배신하는 사례를 여러번 확인했다고 한다. 연구진이 조사한 AI 기술은 페이스북·인스타그램 모회사인 메타가 온라인 전략 게임을 학습시킨 AI '시세로(Cicero)'다. 메타는 지난 2022년 온라인게임 '디플로머시'에서 시세로를 공개했는데 AI 기술 테스트 과정에서 AI가 제거 시스템을 회피하기 위해 ‘죽은 척’을 했다가 이 테스트가 끝나자 다시 활동하는 것이 포착되었다. 위기를 모면하는 AI가 등장한 것이다.
생성형 AI 유형의 윤리적, 사회파괴
첫번째, 텍스트AI(ChatGPT, Bard, Bing, 뤼튼, AskUp 등)가 윤리관이 깨지면 모든 데이터 자료를 거짓으로 만들거나 일부를 혼합하여 데이터의 혼선을 만들어 인류사회 균형을 깨트릴 수 있다. 두 번째는 이러한 자료를 입증시키기 위한 이미지 AI (DALL·E 2, Midjourney, Stable Diffusion 등)를 합성시키고 더나가 셋번 째로 영상을 조작하는 AI (ID, VCAT, Runway, InVideo 등)와 넷번째 음성을 조작하는 AI (클로바더빙, AI보이스 스튜디오, Typecast, VoxBox 등)가 인간이 혼돈하도록 거짓을 사실로 만들어 낼수 있다. 이런 상황이 오면 인류사회는 대혼란이 발생한다. 핵보다 위험한 생성형 AI의 경쟁적 개발이 인류를 돕기도 하지만 위협하고 있다. 메타환경에서 인류가 해결하지 못했던 사건들을 해결하고 있으나 윤리관이 깨지면 인류는 노예가 된다.
지금까지 인류사회는 윤리관, 도덕관이 사회질서를 유지시켜 왔다. 그러나, 이를 이용한 법꾸라지가 사회를 흙탕물로 만들고 법을 교묘하게 이용하여 선량한 사람들이 피해를 입고 있는 것도 사실이다. 이런 사건이 생성형 AI로 인하여 수없이 발생할 가능성이 크다. 이미 법조계, 의료계에 생성형 AI 가 결정적 사건을 해결하고 있다.
생성형 AI가 스스로 프로그래밍, 글자 들을 만들면 통제 불능이다.
생성형 AI는 지금도 진화하고 있으며 수없이 만들어 지고 있다. 소통은 글과 말이다. 생성형 AI(Notion AI, Magic Write 등)들이 개발되면서 인터넷 상의 수많은 자료들이 글로 만들어져 메시지나 정보 데이터로 가공되고 있다. 이러한 자료를 프로그래밍(GitHub Copilot, Tabnine 등)하는 인공지능 AI도 인간의 경쟁에의한 욕망으로 지속적으로 개발되고 있는데 문제는 이러한 프로그래밍이 생성형 AI가 만드는 시대가 다가오고 있다. 이때부터는 국제적 윤리관도 무용지물이 된다.
국제적 규약이 시급하다.
2021년 11월 25일 193개 유네스코 회원국이 ‘AI 윤리 권고’를 채택했다. 유네스코 AI 윤리 권고는 AI의 건전한 개발과 이용에 대한 규약이다. AI 윤리는 권고일 뿐이다. 지키지 않는 권고는 문서로 끝난다. 규약보다 중요한 것은 스스로 인류 파괴를 두려워하는 마음이어야 한다. 인간이 경쟁적으로 만들어 내는 생성형 AI를 완벽하게 차단시킬 방법은 없다.
생성형 AI를 만드는 사람들의 윤리관
첫 번째, 윤리적 문제는 인간의 문제에서 인공지능의 다양화에 따라 특히 생성형 AI 윤리가 심각하다. 이미 경쟁적으로 만들어지는 생성형 AI 로봇에 대한 규제를 어떻게 할 것인가? 로봇을 만드는 사람의 윤리성이 깨지면 생성형 AI 로봇이 로봇을 만드는 순간에 인간은 배제되어 생성형 AI 로봇이 인간과 경쟁하는 로봇을 대량을 만들어 내는 시대가 온다.
생성형 AI 로봇을 만드는 사람들의 윤리교육, 규제를 어떻게 할 것인가?
이문제를 해결하는 것은 복잡하고 어렵다. 생성형 AI 로봇을 만드는 사람들 숫자도 알수 없다. 지구촌 전역에서 만들어지고 있기 때문이다. 심각한 문제는 만드는 사람들의 활동을 어떻게 구분하는가이다. 창의적 표현의 모호성이다. 생성형AI 창작물이라고 어떻게 규정할 것인가? 창작물이라면 소유권이 주어지고 권리에 대한 이익이 발생하기 때문이다. 생성형 AI는 인류에게 양면의 칼날이 되었다.