[챗GPT시대 보안위협③]"국가기밀 샐라"…챗GPT 시대 미리 대비해야
EU '인공지능 법'초안 마련, 日 'AI 전략팀' 신설
생성형AI 생성물 '인간이 생성한 것 아니'라고 밝히도록 명시
"AI의 위험성에 대해 말하고자 구글을 떠났습니다."
딥러닝 기술의 창시자로 알려진 제프리 힌턴 캐나다 토론토대 교수가 지난 4월 구글에 사표를 내고 자신의 트위터를 통해 밝힌 말이다. AI 기술 상용화에 앞장섰던 힌턴 교수가 구글을 떠난 이유는 AI 발전 속도가 인간 통제 수준을 벗어났다고 판단했기 때문이다. AI 분야 석학도 우려할 만큼 AI 기술의 발전 속도는 빨라진 데 비해, AI시대를 맞이할 각국의 제도는 이제 출발선에 섰다.
AI모델 개발사 대상 안전조치 명문화
EU는 지난 5월 AI에 대한 세계 최초의 규제 프레임워크인 '인공지능 법(AI Act)'초안을 유럽의회 상임위원회에서 통과시켰다.
해당 안에선 챗GPT 등 대규모 언어모델·생성 AI와 같은 이른바 '기초 모델' 제공업체 개발자는 모델을 공개하기 전에 안전 점검, 데이터 거버넌스 조치·위험 완화 조치를 적용해야 한다고 명시하고 있다. 또한 시스템을 훈련하는데 사용되는 학습 데이터셋을 공개하고, 생성형 AI가 만든 콘텐츠는 인간이 생성한 것이 아님을 밝혀야 한다는 조항도 담겼다.
미국에서도 AI의 위험성을 우려하며 규제 마련에 나섰다. 상무부 산하 국가통신정보청은 AI의 안전한 사용과 신뢰 환경 구축을 위한 AI 규제안을 마련하기 위해 60일 간의 여론 수렴을 실시한 바 있다. 또한 백악관 과학기술 정책실은 오는 8월 개최되는 세계 최대 해킹 콘퍼런스 '데프콘'에서 챗GPT를 비롯한 생성형AI 시스템을 공개 평가해 잠재적인 취약점을 테스트하겠다고 예고했다.
일본 내각부는 지난 4월 생성형AI 확산에 대응하기 위해 관계부처들로 구성된 AI 전략팀을 신설했다. 이를 통해 AI의 업무 활용과 관련된 과제를 정리하고, 부처 간 의사소통을 강화하는 방안을 논의한 바 있다. 아울러 AI관련된 국가 전략을 수립하기 위한 세로운 전략회의체를 창설하기로 발표했다.
AI 진흥·기반조성 법안 마련…개인정보보호 방안 마련도 착수
우리 정부도 대응에 나선 상태다. 우리 국회는 지난 2월 국회 과학기술정보방송통신위원회 법안심사소위원회에서 '인공지능산업 진흥 및 신뢰 기반 조성 등에 관한 법률안'이 통과됐다.
법률안은 인간의 생명과 안전과 직결된 부분을 '고위험 영역 AI'로 설정해 신뢰성을 확보하도록 했다. 다만, AI 기술발전을 위한 대원칙으로 '우선 허용, 사후 규제' 원칙을 명문화한 것과 관련, 시민사회와 학계에서 이 법안의 전면 재검토 요구가 나온 상태다. 이들은 위해나 위험 발생에 대한 처벌이 명시되지 않았다고 지적하고 있다.
개인정보호위원회는 AI에 활용되는 개인의 데이터 주권을 지키는 방안을 마련할 예정이다. AI 서비스의 데이터 수집·활용 과정에서 국민들의 개인정보 침해 위험이 있을 수 있다는 판단에 따라, AI 서비스의 개인정보 활용·처리 단계별 보호 방안을 마련키로 한 것.
위원장은 지난 23일 'AI과 데이터 프라이버시 국제 콘퍼런스'에서 AI 관련 이슈에 대응하기 위해 ▲AI 서비스 제공자에 대한 안전장치 제공 ▲규정 중심에서 원칙 중심으로 규제 패러다임 전환 ▲AI의 리스크 기준으로 차등적인 규제 도입 등 세 가지 주요 정책 방향을 제시하기도 했다.
국가정보원은 안전한 생성형AI 활용을 위한 가이드라인을 마련했다. 해당 가이드라인을 통해 국정원은 생성형 AI 기술을 안전하게 이용하기 위한 필수 보안수칙을 제시했다.
구체적으로 ▲비공개·개인정보 등 민감 정보 입력 금지 ▲생성물에 대한 정확성·윤리성·적합성 등 재검증 ▲생성물 활용시 지적 재산권·저작권 등 법률 침해·위반여부 확인 ▲연계·확장프로그램 사용시 보안 취약여부 등 안전성 확인 ▲로그인 계정에 대한 보안설정 강화 등이다.
국정원 측은 "챗GPT 등 생성형 AI기술 활용 과정에서 업무상 비밀·개인정보 유출, 가짜뉴스·비윤리적 자료 생성 등 기술 악용 우려가 제기되자 지난 4월 국가보안기술연구소와 학계 전문가들과 함께 이번 보안 가이드라인 제정에 착수했다"고 설명했다.