[챗GPT시대 보안위협 ①] 두려워지는 AI…다크버스 여는 판도라 상자될까
챗GPT 악용 우려 고조…프라이버시·해킹도구 전락 우려
고도화된 AI기술, 쪽같이 속이는데 적극적으로 활용
"생성형AI 모델 보안 확보방안 필요" 전세계 공감대 형성
# 지난 3월 20일, 챗GPT에서 프라이버시 정보 유출 사고가 발생했다. 챗GPT를 쓰던 사용자 일부에게 다른 사용자의 대화 이력이 보이는 버그가 발견된 것이다. 챗GPT 개발사인 오픈AI는 확인 직후, 서비스를 오프라인으로 전환했다.
그러나 챗GPT에서 발생한 정보 유출 사고는 여기서 그치지 않았다. 챗GPT의 대화 이력 유출을 유발한 버그와 동일한 버그로 인해 챗GPT의 유료 버전인 챗GPT 플러스 가입자 1.2%의 결제 관련 정보가 의도치 않게 공개됐을 수 있다는 사실이 드러났던 것.
오픈AI는 즉각 해당 사실을 공개하고 사과했다. 회사 측은 "챗GPT를 오프라인으로 전환하기 전 몇 시간 동안 일부 사용자가 다른 활성 사용자의 이름과 성, 이메일 주소, 결제 주소, 신용카드 번호의 마지막 네 자리, 신용카드 만료일을 볼 수 있었다"고 해명했다.
"AI로 더 교묘하게 속이는 피싱메일·전화 성행할 것"
챗GPT는 언어 처리 AI 모델을 기반으로 하는 대화형 AI서비스로, 지난해 11월 출시 이후 약 2달 만에 월간 이용자가 1억명을 돌파하는 전례 없는 급격한 성장세를 보였다. 국내외 공공·민간·산업 등 다양한 분야에서 활용되면서 챗GPT를 필두로 생성형 인공지능(AI)은 올해 최대의 화두로 부각되고 있다.
생성형 AI는 반복적인 작업을 자동화하고 대량의 데이터를 빠르게 처리, 분석할 수 있을 뿐만 아니라 창의적인 콘텐츠까지 만들 수 있다. 이 때문에 기업들도 생산성 향상을 위해 기술 도입에 속도를 내고 있다.
그러나 생성형 AI 기술·서비스가 급진전되면서 이에 따른 보안 위협을 경고하는 목소리도 커지고 있다. 챗GPT를 이용 악성코드를 개발하거나 랜섬웨어·피싱메일을 제작하는 악용하는 사례들이 속속 보고되고 있다.
고도화된 AI기술은 이용자들을 감쪽같이 속이는데 적극적으로 활용될 전망이다. 가령 이용자를 잘 아는 사람이 보낸 것처럼 정교하게 피싱 메일을 위장할 수 있고, 가족들의 목소리를 복제해 보이스 피싱에 이용하는 범죄가 본격화될 것이라는 게 보안 전문가들의 지적이다.
챗GPT 이용 과정에서 개인정보·기업의 영업 기밀 정보가 유출될 수 있는 우려도 있다. 오픈AI는 전세계 개인·기관·기업에서 챗GPT에 입력하고 질문한 내용을 학습 데이터로 수집한다. 만약 이들 수집 데이터를 해킹할 경우 걷잡을 수 없는 피해가 발생할 수도 있다.
이 때문에 언어모델 서비스 제공업체(LLM) 자체에 대한 보안 강화와 생성형AI 모델 자체의 보안 확보방안이 필요하다는 게 보안 전문가들의 지적이다.
스틸리언 대표는 "대부분의 해킹은 사회공학적 기법을 이용해 사람을 얼마나 잘 속일 것인가, 그리고 이를 통해 어떻게 악성코드를 실행하도록 유도할 것인가의 문제"라며 "AI기술이 발달하면 이를 이용해 더 교묘히 사람을 잘 속일 수 있게 될 것으로 예상되며, 이것이 AI시대의 가장 위험한 보안 위협"이라고 지적했다.
대규모 언어모델 등 생성형 AI 기술의 대표적인 보안 위협(출처=국가정보원)
안전성 확보 방안 시급…세계 각국 규제 움직임
이탈리아 개인정보 감독기구는 얼마 전 챗GPT의 개인정보 수집, 처리·사용자 연령 확인 부재를 유럽 개인정보보호규정(GDPR) 위반 사유로 판단, 챗GPT의 사용을 금지하는 조치를 취한 바 있다.
미국, 유럽연합(EU) 등 해외 주요국에서는 챗GPT 등 AI 기술에 대한 위험성을 우려하며 안전한 사용과 신뢰 환경 구축을 위한 규제 방안 논의에 착수한 상황이다.
보안 업계 관계자는 "생성형 AI의 가능성과 장점을 인정하면서도, 해외 감독기관과 협력하면서 관련 법과 규제를 개선해 나갈 필요가 있다"고 강조했다.