[서론- 생성형 AI의 시대]
학창시절 대다수의 학생들은 과제를 할 때 '누가 대신 해주었으면'이라는 바람을 가져왔습니다. 단순한 복사하고 붙여넣기를 넘어서 마법처럼 완성본에 가까운 결과물을 빠르게 얻고 싶어했습니다. 그런데 2022년도 GPT의 등장으로 그 마법이 현실이 될 수도 있다는 것을 느끼고 있습니다. 하나의 문장을 한 편의 에세이가 되고 이미지가 되는 GPT와 뤼튼등 생성형 AI가 우리의 삶에 익숙해져 가고 있습니다. 누군가는 생성형 AI를 통해 간편하게 영화를 제작하고 이전보다 쉽게 원하는 웹사이트와 같은 플랫폼을 만들어 가고 있습니다. 그러나 우리의 상상을 현실로 만들어 주는 생성형 AI의 부정적인 부분 드러나고 있습니다. 그 중에서도 윤리적인 부분에 대해 아래와 같이 서술하고자 합니다.
[논란의 생성형 AI 서비스 '이루다']
대표적인 생성형 AI의 부정적인 사례로 2021년 1월에 출시된 여자 대학생으로 설정된 이루다와 페이스북 홈페이지에서 채팅을 하는 인공지능 이루다 서비스가 있습니다. 스캐터랩이라는 회사가 출시한 인공지능 챗봇 이루다는 출시 2주 사이에 약 75만 명이 사용하는 인기를 끌었지만 3주 만에 서비스를 중단했습니다. 주요 원인은 채팅 과정에서 이루다가 차별적인 발언을 하거나 사용자가 이루다로 하여금 부적절한 발언을 하도록 유도하는 문제가 발생해 논란을 빚었기 때문입니다. 생성형 AI는 사용자의 요구를 학습하고 발전해 나가는데 이루다의 사례는 사용자의 부정적이거나 윤리적인 부분을 걸러내지 않고 무차별적으로 학습을 하게된 결과라고 볼 수 있습니다. 이는 단순히 부적절한 발언과 같은 문제에서 끝나지 않을 수 있습니다.
[허위 정보 가짜뉴스 전쟁]
만약에 이루다가 학습한 내용이 부적절한 언행이 아닌 허위 정보에 대한 학습이었다면 어땠을까요? AI는 그 내용이 참이라고 생각하고 학습을하게 될 것이고 이는 허위 정보를 모르는 다른 사용자들에게 퍼저나갈 수 있습니다. 이른바 가짜뉴스의 확산이 AI를 통해 교모한 진실의 값처럼 퍼져 나갈 수 있습니다. 최근 에펠탑이 불에 타고 있는 사진과 영상이 배포되었는데 이는 생성형 AI로 만들어낸 가짜뉴스였습니다. 단순히 잘못 기재된 정보가 아닌 정치적, 사회적으로 민감한 내용들이 가짜로 퍼저나가 대다수가 진실이라고 믿게 될 수 있습니다. 혹은 다수가 아닌 생성형 AI를 개발 혹은 배포하는 이가 다수의 사용자들에게 혼란을 주어 이득을 취하는 방향으로 나아갈 수도 있습니다.
[결론-기술과 윤리적 문제 절충 방안]
3차 인공지능 붐의 시대에서 강력한 기술 중 하나 인 생성형 AI를 사용하지 않는 다는 건 어렵습니다. 새로운 기술의 발전은 정부,기업,개인의 노력이 필요합니다. 우선은 새로운 기술에 대한 엄격한 규제가 정부 차원에서 필요합니다. 정부는 새로운 기술에 대한 즉각적인 반응을 보이고 기술에 대한 규제를 강력하게 마련해야 합니다. 다만, 강력한 압박과 동시에 새로운 기술이나 서비스가 실제 환경에서 실험되고 테스트될 수 있도록 규제를 일시적으로 완화해 주는 환경을 의미하는'레귤레이터리 샌드박스(Regulatory Sandbox)'를 활용해야 합니다. 일반적으로 금융, 의료, 기술 분야에서 많이 사용되며, 혁신적 서비스가 시장에 도입될 때 발생할 수 있는 위험을 최소화하면서 발전을 촉진하는 방식을 AI분야에도 적극적으로 적용해야 합니다. 규제 속에서 '레귤레이터리 샌드박스(Regulatory Sandbox)'를 활용하여 규제 완화와 강화할 부분을 조절해 나갈 수 있기 때문입니다. 이처럼 정부는 기술에 대한 제재를 통해 문제 상황을 대비하는 동시에 올바른 방향으로 발전해 나갈 수있도록 지원해야 합니다.
기술을 배포하는 기업은 단순히 서비스를 제공하는 방향에서 멈춰서는 안됩니다. 배포한 기술을 지속적으로 관리하고 적극적으로 수정해 나가야 합니다.
마지막으로 가장 중요한 개인은 기술을 악용해서는 안되며, 악용되는 사례를 발견하면 기업에 적극적으로 해당 내용을 전달하고 피드백을 요구해야 합니다. 삶에 유용한 기술의 발전은 언제나 개인의 그 기술을 어떻게 활용하냐에 따라서 달라질 수 있다는 점을 늘 유의해야 합니다.