|
(현대경영포럼)
과기정통부 인공지능기반 정책관 초청
인공지능윤리포럼 AI Ethics Forum
(입력: 월간현대경영 2023년 8월호/BIZ&전략)
주 제 좌 장 참석인사 | 인공지능 윤리정책과 혁신성장 엄 열 과학기술정보통신부 인공지능기반정책관 곽용재 네이버클라우드 CTO 김세엽 셀렉트스타 CEO 이활석 업스테이지 CTO 이승준 트웰브랩스 CTO 김동환 포티투마루 CEO 김민성 한국아이비엠 실장 |
The starry heavens above me
and the moral law within me.
하늘 위에 총총히 빛나는 별과
내 마음 속의 도덕률.
엄열 과기정통부 인공지능기반정책관 초청
인공지능(AI) 윤리정책과 혁신성장
일시 2023년 7월 25일 08:00-09:30 I 장소 조선호텔 20층 스시조 (별실)
‘규제와 진흥’ 사이냐?
‘규제보단 균형’이냐
AI 시대가 너무 빠르다. ‘이세돌 9단’과 ‘알파고’의 대국이 7년 전 일이지만, 이미 그것은 전설로만 남아있을 만큼 현재 인공지능(AI)은 산업계의 새 먹거리 판으로 확장됐다. 인간의 일자리를 빼앗을 것이라거나, 인간과 공생할 것이라는 등 대중은 ‘기대반 우려반’의 반응을 보이고 있다. 현대경영포럼이 주최한 제1회 ‘인공지능 윤리정책포럼’ 기조연설에서, 엄열 과기정통부 AI 국장은 “인간의 존엄성과 공익을 해치지 않는 선에서 인공지능을 발전시키기 위해 AI 윤리정책을 개발해 왔다”고 밝혔다. 행시(39회)를 거쳐 과학기술과 AI 윤리정책 발전에 기여해온 엄 정책관은 특히 인공지능의 규제와 진흥 사이의 균형점 모색을 강조했고, 포럼 참석자들은 규제보다 균형을 중시하자는 말로 화답했다. 독일의 철학자 임마누엘 칸트는 “밤하늘의 별과 마음속의 도덕률”을 주장한 최초의 인물이었는데, 그렇다면 현재의 인공지능에게 칸트의 도덕률을 입힐 수 있을까? 이 어려운 숙제를 어떻게 풀어야 할지, 왕년의 인기배우 ‘제임스 딘’을 닮은 것으로 보이는 엄열 과기정통부 인공지능기반정책관, 그리고 역사와 전통의 한국IBM, 네이버(NAVER), 특히 오늘 정장 대신에 편안한 자유복과 운동화를 신고 조찬회에 나온 AI 신생기업의 셀렉트스타, 업스테이지, 트웰브랩스, 포티투마루(가나다순) 등의 천재적(?)인 CEO 및 CTO의 AI 발언을 들어보면서 기자는 인공지능(AI) 업계에도 곧 ‘AI의 삼성전자‘가 탄생할 것이라는 예감이 들었다.
KEYNOTE ADDRESS
격론: 규제와 진흥 사이 절충점 모색
엄열 과기정통부 인공지능기반정책관 안녕하십니까. 과기정통부의 엄열 정책관입니다. 아시다시피 인공지능은 놀라운 발전을 거듭해왔습니다. 특히 ‘ChatGPT’가 나온 후 인공지능에 관한 장밋빛 전망이 쏟아졌습니다. 하지만 불과 3개월 전부터 인공지능을 규제하자는 목소리가 나오고 있습니다. 정부도 이에 발맞춰 규제에 관한 논의를 지속해 왔고 저 역시 지난 6개월 간 윤리 . 신뢰성 정책을 다듬는 일에 매진해 왔습니다. 국회에서도 인공지능 규제 법안을 제정하려는 움직임이 있었습니다. 물론 윤리와 법은 좀 다른 면이 있습니다만, 인공지능을 안전하고 바람직하게 활용하고자 하는 목적 측면에서는 차이가 없다고 생각합니다. (ChatGP: Open AI가 개발한 대화형 인공지능) 특히 국민 권리에 영향을 미치거나 인간 생명에 위험을 가하는 AI, 다시 말하면 국민의 생명, 안정, 권리 관계에 영향을 미치는 고위험 영역의 AI에 관해서는 규제가 필요하다는 의견이 지배적입니다. EU에서 만든 인공지능 규제 법안을 보면 처벌 조항은 물론 경제적 제재에 관한 조항도 포함돼 있습니다. 해당 법안은 인공지능의 안전성이나 이용자 보호, 개인정보보호를 강조하고 있습니다. 약 5년∼10년 전에 유럽에서 개인정보 관련된 법인 GDPR(개인정보보호 규정: General Data Protection Regulation)을 만든 후 굉장히 많은 논란을 일으켰습니다. 지금도 개인정보를 포함한 관련 데이터를 활용해야 하는 기업 입장에서 GDPR은 매우 강력한 규제입니다. 더욱이 EU에서는 개인정보보호지침 ‘적정성 평가(EU 적정성 평가: 한국 같은 역외 국가가 EU 개인정보보호지침과 같은 수준으로 개인정보보호 조치를 하는 지 여부를 평가)’도 시행 중입니다.
적정성 평가는 기업에는 진입 장벽에 해당하여 대한민국의 인공지능 기업이 EU 진출을 어렵게 만들기도 합니다. 적정성 평가를 통과한 기업만 AI에 필요한 정보와 데이터를 사용할 수 있도록 허용하기 때문입니다. 이는 곧 기업 입장에서 규제리스크(기업이 법 위반으로 인해 제재를 받을 가능성이 높아지는 것을 말함)에 해당할 수 있습니다. 미국의 경우를 보면, 빅테크나 거대 AI 기업이 많아서 상황이 좀 다릅니다. 기업이 인공지능을 자율적으로 규제하고 인공지능의 영향도 자체 평가토록 허용합니다. 물론 미국도 인공지능 윤리정책을 간과하지는 않습니다. 바이든 대통령은 거대 AI 기업을 소집하여 안전하고 투명한 AI 기술 개발을 위해 세 가지 원칙 (①Safety: 제품을 대중에게 소개하기 전에 제품의 안전성 보장, ②Security: 보안을 최우선으로 하는 시스템 구축, ③Trust: 대중의 신뢰 얻기)를 발표했습니다. 또한 AI 기업이 AI로 생성·변조된 문서나사진, 음성 · 영상 콘텐츠에는 워터마크(watermark: 컴퓨터 등 불법복제방지기술)를 자발적으로 표시토록 했습니다.
세계 5대 초거대 AI 국가 진입-미국, 중국, 이스라엘, 캐나다, 한국
한국 정부도 AI의 안정성, 보안성, 투명성, 신뢰성을 고려하면 리스크를 줄일 수 있다고 보고 있습니다. 윤석열 대통령께서도 파리 디지털 비전 포럼에서 새로운 디지털 질서 및 윤리적 측면에서의 원칙을 강조하셨습니다. 미국을 포함한 동맹국과 함께 AI 거버넌스 협력과 디지털 규범 제정을 위한 국제기구 설립에 대해서도 말씀을 하셨습니다. ‘글로벌 디지털 리더십’을 발휘하고 계신 것입니다. 이와 함께 인공지능의 규제 측면에서 사회적 공감대 형성을 지속해 나가려고 합니다. 시민단체 등은 규제를 강조하는 반면, 산업계에서는 한목소리로 AI의 진흥을 촉구하고 있습니다. 과기정통부는 AI 산업 진흥과 신뢰성 등 규제를 균형 있게 달성해야 한다는 입장이며, 인공지능 기술 뿐만 아니라 법제도 등 규율 체계 마련 측면에서도 세계를 선도하기 위해서 인공지능법이 조속히 제정되기를 희망하고 있습니다. 정부는 오늘 조찬회에 나오신 기업인분들을 포함해 여러 민간기업과 함께 인공지능 개발 시 윤리원칙과 관련된 부분들을 논의하고 있습니다. 분야별로 보면, 자율주행차는 신뢰성이 더 중요하고 챗봇의 경우는 안정성이더 중요할 것입니다. 데이터 쏠림으로 인한 편향적인 결과를 방지해야 할 것입니다. 이런 논의의 목표는 AI의 안정성, 보안성, 투명성과 관련한 위험 요인을사전에 제거하는 데 있습니다. 이를 위해 소위 말하는, 위험 요인을 설명할 수 있는 AI 개발을 독려하고 있습니다. 블랙박스가 아니라 위험성 . 편향성 등을 선제적으로 예측 . 방지할 수 있는 AI 개발이 필요합니다. 대한민국은 미국, 중국, 이스라엘, 캐나다 등과 함께 생성형 AI 모델을 개발 . 보유한 국가 중 하나이며, 다양한 초거대 AI 기반의 응용서비스를 출시하고 있는 등 초거대 AI 생태계를 형성하고 있습니다. 언어 . 이미지 등을 이해하고 생성하는 초거대 AI 서비스 개발을 위해 글로벌 빅테크 기업 등은 대규모 투자를 하고 있습니다. 이런 투자를 통해 파운데이션 모델을 개발하고, ‘지도 학습-supervised learning’, ‘강화 학습-reinforcement learning’ 등 다양한 방식으로 산더미 같은 데이터를 학습시켜 생성형 AI를 개발하고 있고, 추가적인 전문 데이터 학습을 통해 여러 분야의 새로운 응용 서비스가 제공되고 있습니다. 앞서 말씀드린 바와 같이 우리나라의 초거대 AI 시장도 이미 형성되어 있다고 볼 수 있으며, 이제 규제를 포함한 윤리적 측면의 논의도 계속 진행해 나가야 합니다.
저작권 등 민감한 이슈에 선제적 대응도
기업 입장에서 저작권이란 제도는 큰 문제로 다가올 것입니다. 이 문제를 포함해 개인정보라든가 이런 민감한 이슈가 기업의 발목을 잡지 않도록 미리 대처해야 합니다. 뿐만 아니라 인공지능이 교육 분야에 사용될 경우 발생할 문제도 고려해야 합니다. 과기정통부가 관련 부처와 협의를 이어 나가겠습니다. 인공지능의 급격한 확산에 따라 기존 규범의 정비를 위해 민간 중심의 법제정비단도 구성 . 운영할 계획입니다. 분야별로 윤리원칙이나, 개발서 등을 만들어 나가면서 기업들이 현장에서 적용할 수 있는 가이드라인을 만들고 있습니다. 정부의 이러한 노력은 인공지능의 신뢰성과 사회적 수용성을 향상하기 위함입니다. 규제와 진흥 사이의 균형점을 모색할 것입니다.
ROUND TABLE업계는 규제보다 균형에 방점
곽용재 네이버클라우드 CTO 안녕하십니까? 네이버클라우드의 곽용재 CTO입니다. 엄열 정책관님 말씀을 적극 경청하면서, 규제보다는 균형에 방점을 두어야 한다는 부분에 깊이 공감했습니다. 네이버는 지난 20년 간 검색 서비스를 비롯한 여러 포털 서비스를 제공해 오면서 여러 가지 윤리 문제를 경험했습니다. 개인적으로는, 현재 인공지능 관련 윤리 문제가 마치 네이버가 오랜 기간 겪은 문제가 응축되어 나타난 것이 아닌가 하는 느낌입니다. 20년 전에 인터넷 시대가 도래하면서 네이버는 인터넷 관련 기술을 많이 받아들였고 개인정보 문제를 포함한 윤리적 이슈들과 정면으로 부딪히며 대응해왔습니다. 인공지능이 워낙 빠르게 발전하다보니, 관련 문제가 응축되어 발현되었고 그로 인해 인공지능 윤리 문제가 더욱 크게 다가오는 것 같습니다. 네이버는 과거의 교훈을 발판으로 삼아 앞으로 발생할 AI 윤리 이슈에 슬기롭게 대처해나가겠습니다. 저는 규제보다는 진흥을 좀 더 강조하는 여건이 마련되기를 희망합니다. 네이버는 ‘하이퍼클로바(HyperCLOVA X)’라는 자체 AI를 개발했고 이와 관련한 이슈들도 챙겨오고 있습니다. 정부가 규제보다는 이런 AI 윤리 기준 혹은 적용 방식 등을 경험해본 네이버와 같은 선도기업과 발을 맞춰가면서 어떤 이슈가 발생할지, 어떻게 해결할지 민관이 같이 고민하고 지혜를 모았으면 좋겠습니다.
인공지능 신뢰성 ‘정량화’ 방안도
김세엽 셀렉트스타 CEO 반갑습니다. AI를 위한 All-in-one 데이터 플랫폼 셀렉트스타의 김세엽입니다.
저 역시 규제보다 진흥이 중요하다고 생각합니다.
사전에 대비할 수 있는 위험 케이스의 대응 면에서 한계가 있기 때문에 사람들이 인공지능을 많이 써봐야 어떤 부분을 더 보완하고 대응해야 하는지 알 수 있을 것입니다. 보완할 부분을 파악해야 효과적이고 적절한 규제 도입이 가능합니다. 사람들이 AI 기술을 잘 받아들이도록 하기 위해서는 신뢰성 기준을 마련하는 것이 중요합니다. 셀렉트스타는 산학연이 모두 모인 인공지능 윤리 포럼의 위원으로 활동하고 있습니다. 또한 현재 초거대 언어 모델의 신뢰성을 정량적으로 측정할 수 있는 기준과 데이터를 만드는 국가 과제를 수행 중입니다. 이러한 활동을 기반으로 우리 사회에서 AI가 신뢰를 얻고 첨단 기술로 자리 잡을 수 있도록 최선을 다하겠습니다.
기술 자체보단 서비스 차원에서 검증을
이활석 업스테이지 CTO 안녕하십니까. 업스테이지의 이활석 CTO입니다. 저는 인공지능 윤리 지침의 원칙은 AI 서비스 사용자들이 불편을 느끼지 않도록 하는 것이라고 생각합니다. 챗GPT는 기술이기도 하지만 하나의 서비스이기도 합니다. 일상 대화나 문장 생성 이외에 다른 용도로 사용할 때 부족한 점이 드러나기 시작하면서 챗GPT와 여러 다른 도구들을 종합하여 서비스를 만드는 사례가 급증하고 있습니다. 서비스 관점에서 보면, 챗GPT는 하나의 모듈에 불과합니다. 따라서 서비스 관점에서 AI의 윤리성을 검증해야 합니다. 이런 검증을 위해 투명성을 개선해야 합니다. 인공지능 제작 과정을 투명하게 공개해야 합니다. 그래야 문제가 생겼을 때 해결책을 모색할 수 있습니다. 이를 위해 정부가 정부문서 데이터를 공개해 주시고, 이 데이터를 활용한 초거대 언어모델 기반 서비스 과제를 도출하여 개발 과정이 투명해지면 큰 도움이 될 것 같습니다.
기업이 윤리 챙겨야 초거대 모델 제어할 수 있다
승준 트웰브랩스 CTO 좋은 말씀들 감사합니다. 트웰브랩스의 CTO 이승준입니다. 앞서 정책관님께서 말씀하신 ‘균형’의 중요성에 공감합니다. 트웰브랩스 또한 초거대 모델에 관한 이분법적 관점에서 벗어나야 한다고 생각합니다. 기업은 진흥만 강조해서는 안 되고 정부 역시 규제만 강조해서는 안됩니다. 민관 모두 진흥과 규제를 동시에 아우르는 균형감 있는 관점을 갖는 게 중요하다고 생각합니다. AI 윤리는 기업 윤리 차원뿐아니라 비즈니스적 차원에서도 중요한 상황입니다. AI 윤리에 대한 이해도는 곧 초거대 모델을 제어할 수 있는 능력을 간접적으로 보여주는 지표이기 때문입니다.정부가 AI 윤리 기반의 규제에만 초점을 맞출 경우, 국가의 초거대 모델 기술 경쟁력을 약화시킬 수 있습니다. 결국 진흥과 규제 두 가지는 함께 가야한다고 생각합니다.
CIO(정보관리 최고책임자)에서 CAEO(인공지능윤리 최고책임자)로
김동환 포티투마루 CEO 포티투마루의 김동환 대표입니다. 과기정통부에서 제시한 윤리기준이 상당히 정리가 잘 되어 있어 인공지능 기술을 개발하고 사용하는 기업 입장에서는 매우 유용한 가이드입니다. 하지만, 현실적으로 해당 윤리가이드의 민간 활용도가 많이 떨어집니다. 정부에서 윤리가이드를 잘 활용할 수 있도록 홍보를 강화해 주셨으면 좋겠습니다. AI 기업이 윤리가이드를 사용하다보면 어떠한 문제들이 발생하게 되는지, 그리고 이를 어떻게 해결할 수 있을지 스스로 찾아갈 수 있을 것입니다. 생성형 AI 발전으로 환각(hallucination) 현상과정보 보안 문제 등이 중요한 화두로 대두되고 있습니다. 이에 대응하기 위해, CIO(정보관리 최고책임자) 제도처럼 CAEO(인공지능윤리 최고책임자) 제도를 만들어서 기업 및 기관의 인공지능 윤리 의식을 함양하고 디지털 역기능에 선제적으로 대응할 필요가 있습니다. 규제보다는 교육 프로그램 가동, 내부 프로세스 정립 및 통제 시스템 구축 지원 등 인공지능 윤리 이슈를 차근차근 준비해 갈 수 있도록 도와주는 것이 필요합니다.
AI 개발자와 배포자 역할을 명확히 구분
민성 한국IBM 실장 IBM은 왓슨(watson) 인공지능을 개발할 때부터 AI를 연구해왔기 때문에 기업 내부에 AI 윤리위원회를 운영해 오고 있습니다. 해당 윤리위원회는 IBM이 발표하는 제품이나 서비스를 윤리 차원에서 점검합니다. 저희 회사에서 오래 축적해온 인공지능 윤리 관련 노하우를 정부 및 관계기관에 제공해 드릴 수 있습니다. 정부는 물론, IBM을 포함한 기업들이 인공지능 윤리에 관해 노력하고 있다는 점을 국민들께 알리는 데도 적극 참여하겠습니다. 윤리 측면뿐만 아니라 법적 측면에서 보자면, AI 이해관계자들, 즉 개발자(Developer)와 배포자(Deployer, 이용자)의 역할과 책임이 구체적으로 명시되면 좋겠습니다. 내용을 명확히 알고 서비스를 제공한 자에게 책임과 역할을 부여하면 국민의 권익 보호에 보다 도움이 될 것입니다. 소유와 사용의 주체는, 경우에 따라 개발자가 될 수도 있고 배포자가 될 수도 있습니다. 관계법이나 시행령에 이런 책임과 역할이 명시되면 기업들이 AI를 더욱 안전하게 발전시킬 수 있으리라고 믿습니다.
CLOSING ADDRESS
엄열 과기정통부 국장 오늘 기업인 여러분들의 말씀을 잘 들었습니다. 저 역시 획일적인 규제보다 균형을 더 중시하며 정책을 개발하겠습니다. AI가 급격히 빠른 속도로 발전하는 만큼 정부가 AI 기업을 사전에 규제하기는 어려운 측면이 있는 것이 사실입니다. 다만, 최소한의 윤리정책 틀(framework)은 필요하다고 생각합니다. 정부도 AI 학습에 필요한 데이터를 가능한 범위 내에서 공개하도록 노력하겠습니다. 현재 AI 허브(aihub.or.kr)에 누구나 자유롭게 활용할 수 있도록 학습용 데이터를 구축해 놓은 상황입니다. 법체계도 개발해야겠지만 법보다 정책적 차원에서 데이터 제공 방안을 모색하겠습니다. 기업에 제공하기에 좋은 데이터가 있다면 행안부를 비롯한 정부 부처와 협의해 보겠습니다. 오늘 이런 좋은 논의 기회를 주신 현대경영에 감사의 말씀 전하면서, 앞으로도 AI 기업인분들과 만나서 허심탄회한 대화를 나눌 자리가 마련되기를 바랍니다. 감사합니다.
—
* 자세한 내용은 월간현대경영에 문의하시기 바랍니다.
2023. 08월호