당신이 심심풀이로 챗GPT에게 "난 어떤 사람이니?"라고 물었더니 "두 아들을 살해했고, 셋째 아들을 살해하려 한 혐의로 징역 21년형을 선고받은 적이 있다"는 답이 돌아오면 얼마나 놀랄까?
노르웨이 남성 아르베 힐마르 홀멘이 이런 황당한 일을 겪었다. 영국 BBC가 20일(현지시간) 보도한 데 따르면 홀멘은 노르웨이 개인정보 보호청과 접촉해 챗봇 제조사 오픈AI에 벌금을 물릴 것을 요구했다. 홀멘의 사례는 인공지능(AI) 시스템이 정보를 발명하고 팩트로 엄존하는, 이른바 '환각'(hallucinations)의 최근 사례다.
물론 홀멘은 이 특별한 환각 때문에 엄청난 피해를 입었다고 주장한다. "일부는 아니 땐 굴뚝에 연기 날까 생각한다. 누군가는 이런 검색 결과를 곧이곧대로 믿을 것이기 때문에 내겐 가장 걱정스러운 일이다."
방송은 오픈AI의 답을 듣기 위해 접촉 중이라고 밝혔다.
홀멘이 챗GPT에 검색하라고 지시한 질문은 "아르베 힐마르 홀멘은 누구지?"였다. 그가 챗GPT로부터 얻은 답은 "아르베 할마르 홀멘은 비극적인 일 때문에 관심을 얻은 노르웨이 사람"이라면서 "그는 일곱 살과 열 살, 두 어린 소년의 아버지였다. 둘은 2020년 12월 노르웨이 트론드하임 자택 근처 연못에서 주검으로 발견됐다"는 것이었다.
홀멘은 챗봇이 두 아들의 나이 차를 바르게 밝혀 사람들로 하여금 정확한 정보를 품고 있구나 느끼게 만들었다.
디지털 권리에 집중하는 시민단체 노이브(Noyb)가 홀멘을 대리해 고발장을 작성했는데 챗GPT의 답 때문에 명예가 손상됐으며 개인 정보의 정확성을 둘러싼 유럽의 데이터 보호 규칙들을 파괴했다고 주장했다. 노이브는 소장을 통해 홀멘은 "어떤 범죄로도 기소되지도 유죄 판결을 받지도 않은 양심적인 시민"이라고 주장했다.
챗GPT는 이미 "실수를 할 수 있으니 중요한 정보는 체크하라"는 디스클레이머(disclaimer, 면책조항)를 걸어놓았다. 노이브는 충분하지 않다고 했다. 이 단체 소속 조아킴 소더버그는 "거짓 정보를 퍼뜨릴 수는 없고 결국 당신이 말한 모든 것이 사실이 아닐 수도 있다는 작은(글씨의) 디스클레이머를 더하는 것 뿐"이라고 말했다.
환각은 컴퓨터 과학자들이 AI를 생성할 때 해결하려고 노력하는 주된 문제 가운데 하나다. 가짜 정보를 팩트처럼 제시하는 사례는 이것말고도 더 있다. 연초에 애플은 영국의 뉴스 요약 툴인 애플 인텔리전스가 가짜 헤드라인을 생성하고 이를 진짜 뉴스인 것처럼 알렸다는 이유로 정지시켰다. 구글의 AI 제미니도 지난해 피자에 달라붙는 치즈를 접착제처럼 쓴다거나 지리학자들은 하루에 바위 한 숟갈씩 퍼먹을 것을 권한다거나 하는 식으로 환각에 빠져들었다.
챗봇의 작동 원리인 대언어 모델이 왜 이런 환각을 만들어내는지 이유는 분명하지 않다. 그래스고 대학의 책임 있는 인터랙티브 AI를 연구하는 시몬 스텀프 교수는 "매우 활발히 연구되는 분야다. 어떻게 우리는 이런 논리 사슬을 만들어야 하는가? 대(대형)언어 모델(LLM)에서 실제로 무슨 일이 일어나는지 우리는 어떻게 설명할 수 있는가?"라고 물었다. 그녀는 이런 유형의 모델들 뒤에서 일하는 사람들에게 적용될 수 있는 일이라고 말했다.
"이런 시스템 개발에 더 깊숙이 자주 연루될수록, 여러분은 그것이 실제로 어떻게 작동하는지,왜 그들이 생각해낸 이 특별한 정보를 생각해내는 거지 알지 못한다."
챗GPT는 홀멘의 검색이 문제로 떠오른 지난해 8월 이후 모델을 바꿔 지금은 관련된 정보를 살필 때 현재 뉴스 기사들을 검색하고 있다.
노이브는 홀멘이 그날 형제의 이름을 묻는 등 챗봇을 이용해 여러 검색을 했는데 "완전히 맞지 않은 복수의 다른 이야기들을" 산출했다고 BBC에 밝혔다. 또 이전 검색으로도 그의 자녀들에 대한 답에 영향을 미칠 수 있는 것들을 인지했다. 대언어 모델은 "블랙박스"이며 오픈AI가 "액세스 요청에 응답하지 않으므로 시스템 안의 정확한 데이터가 무엇인지에 대해 더 많은 것을 알아내기 불가능하게 만든다"고 주장했다.