과학·공학 10가지 도전적 질문 ④
인과관계를 완전히 추론하는 인공지능을 만들 수 있을까
서울대총동창신문 제550호(2024.01.15)
서울대 국가미래전략원의 ‘과학과 기술의 미래 클러스터’(클러스터장 이정동)에서 최근 ‘그랜드 퀘스트 2024’(포르체)를 펴냈습니다. 이정동 클러스터장은 “도전적 질문 (Grand Quest)이 진정한 혁신의 출발점”이라고 말합니다. 10개의 도전적 질문을 통해 최신 과학∙공학의 이슈도 살펴볼 수 있습니다. 서울대총동창신문에서 10회에 걸쳐 그 내용을 전합니다. -편집자 주
Grand Quests 연재 순서
1. 집적회로기반 양자컴퓨팅 2. 프라이버시 기반 인공지능 3. 효소모방 촉매 4. 추론하는 인공지능 5. 체화 인지구조 인공지능 6. 인공지능 기반 항체설계 7. 노화의 과학 8. 초미세/초저전력 반도체 9. 환경적응적 로봇 10. 초경량 배터리
|
김용대(계산통계86-91) 모교 통계학과 교수
윤성로(전기정보92-96) 모교 전기정보공학부 교수
대답과 함께 그 이유를 설명하지 못한다면, 인공지능을 믿고 쓸 수 없다. 신뢰할 수 있는 인공지능은 인과관계를 설명할 수 있어야 하지만, 현재의 인공지능 패러다임 하에서는 인과관계를 추론하는 것은 불가능하다. 인간이 납득할 수 있는 인과관계를 추론하고 제시할 수 있는 인공지능 알고리즘을 만들 수 있을까?
최근 생성형 인공지능들이 잇따라 출시됨과 동시에 이 모델들이 주는 정보의 신뢰성 문제가 화두가 되고 있다. 이 전의 많은 인공지능 모델들은 주로 특정한 목적으로 개발된 제한적 환경에서 신뢰할 수 있는 정보들을 주는 높은 성능의 모델들이었지만 최근의 생성형 인 공지능들은 개방된 환경에서 보다 일반적으로 활용되고 있다. 이러한 기술 발전의 사이에 대두되는 문제는 개방된 환경의 인공지능이 사실을 말하는가에 대한 팩트 체크라 할 수 있다.
현재로서는 인공지능의 정보처리과정(신경망)이 블랙박스화 되어 있어 투입(input)과 산출(output) 간의 인과 관계를 판단할 수 없다. 따라서 인공지능이 산출한 것이 진정 팩트인지를 구분하는 것은 매우 어렵다. 더욱이 전문적인 지식이 없는 일반인은 인공지능이 제시하는 그럴듯한 거짓말(hallucination)을 사실로 오해할 가능성이 크기 때문에 개방된 환경 내 인공지능을 믿고 쓸 수 있는지에 대한 우려가 커지고 있다. 따라서 인공지능이 왜 이런 답을 내놓았는지를 설명할 수 있어야만 해롭지 않은 인공지능을 유용하게 활용할 수 있을 것이다.
설명 가능성의 문제는 인공지능이 성능에 집중하여 발전되어온 탓에 그 신경망이 너무나 복잡해지면서 발생했다고 볼 수 있다. 만약 우리가 신뢰가능한 인공지능에 초점을 두고 설명 가능성에 집중한다면, 인공지능의 성능이 떨어질 수밖에 없다. 다시 말하자면, 인공지능의 성능과 설명 가능성 간에는 분명한 상충 관계가 있으며, 이것이 인공지능에서 제기되는 근본적인 난제다. 개방된 환경에서 인공지능이 활용되기 시작했지만, 많은 사람들이 유용한 인공지능을 믿고 사 용할 수 있도록 성능이 떨어지지 않으면서도 인공지능이 내놓은 결과의 이유를 설명할 방법을 찾아야 한다.
인간은 추상화 능력을 통해 인과관계를 파악한다. 즉, 다양한 개별 사건들의 경험을 추상화하고 공통점을 발견하여 이를 인과관계로 인지한다. 예를 들면, 인간은 라면을 먹기 위해 끓이는 물과 커피를 마시기 위해 끓이는 물을 모두 뜨거운 물로 인식하고, 뜨거운 물이 손에 닿으면 아픈 것을 인식한다. 라면을 먹기 위해 끓인 물에 손이 데었을 때, 라면 때문이 아니라 물 때문이라고 인식할 수 있는 능력이 인간에게는 있다. 이러한 추상화 능력이 없는 인공지능은 라면 물에 손이 데었을 때, 라면 때문에 데인 것인지 물 때문에 데인 것인지 판단하지 못한다. 인공지능은 그저 라면을 끓이다 손이 냄비에 들어가면 손이 아프다는 신호를 출력할 뿐이다. 인공지능이 인간과 진정으로 소통하기 위해서는 추상화 능력이 필요하고, 이를 위해서는 현재 블랙박스 모형의 복잡한 인공지능 모형의 구조를 설명하고 해석할 수 있어야 한다. 즉, 왜 이런 출력이 나왔는지에 대한 질문에 답을 할 수 있어야 한다.
현재의 제한적 환경 내에서 전문가들이 활용하는 인공지능의 설명 가능성 문제는 여러 조건을 설정하는 방식으로 접근하면 가까운 미래에 해결할 수 있을 것이다. 하지만 위의 물 끓이기와 같은 개방된 환경은 너무나 복잡하기 때문에 인공지능의 블랙박스도 그에 따라 더 복잡해질 수밖에 없기 때문에 개방된 환경의 설명 가능성 문제를 풀기는 너무나 어렵다. 특히 인과관계의 추론을 추상화된 상황에서 시작하는 인간의 신경망을 모방하여 인공지능이 인간과 비슷하게 인 과 추론을 하기 위해서는 블랙박스가 더 거대해지고 복잡해질 수밖에 없기 때문에 개방된 환경 내 설명 가능성 문제의 해결 방안을 찾기는 더욱 어렵다.
인공지능의 설명 가능성 문제를 해결하기 위한 노력은 다방면으로 진행되고 있다. 복잡하면서도 설명 가능한 인공지능을 구현하기 위한 노력으로는 SENN(Self explaining neural networks), 프로토타입 네트워크(Prototype networks) 등이 있다. 제일 쉬운 방법은 설명이 가능한 모형을 구축하여 인공지능을 구현하는 것이다. 그러나, 이때 활용되는 설명 가능한 모형 자체가 단순해 야 하기 때문에 복잡한 문제를 해결하는 데는 큰 역할을 하지 못한다. 이에 따라 복잡한 인공지능 모형을 설명 가능한 형태로 변환하는 방법들이 개발되고 있다. LIME, SHAPE 등이 이러한 종류의 알고리즘이며, 많은 분야에서 널리 사용되고 있다. 하지만, 이러한 방법들도 복잡한 인공지능 모형의 일부분만 설명할 수 있을 뿐, 전체적인 작동 원리의 파악은 요원하다. 예를 들면, 채용 심사를 위한 인공지능에서 추린 지원자가 떨어진 이유를 설명한다고 하지만, 이러한 설명이 다른 지원자에게 적용되지 않는 경우가 많이 등장하고 있다.
보다 근본적으로 설명 가능한 인공지능의 난제를 풀기 위해서는 인공지능의 인과관계 추론 방식을 파악해야 한다. 인공지능의 인과적 이유 설명 문제를 파고들어 튜링 상을 수상한 Judea Pearl의 고민으로부터 힌트를 얻을 수 있을 것으로 기대한다. 그의 생각을 실제적으로 구현하기 위해서는 인과 그래프(causal graph), 지식 그래프 (knowledge graph) 등의 방법을 활용할 수 있을 것이다. 하지만 아직 갈 길이 멀다. 인과 추론을 위한 대부분의 방법들은 암진단과 같이 복잡도가 아주 높지 않은 문제에서는 유용하게 쓰이지만, 언어 모형과 같이 복잡도가 극히 높은 문제에서의 인과 추론 기법은 아직 개발되지 않고 있다. 기존의 인과 추론 방법의 복잡도를 획기적으로 높이는 아이디어가 절실히 요구되고 있다
인공지능의 블랙박스를 이해하지 못하고 있는 현재, 사회적으로 많은 문제들이 발생하고 있다. 특히 기업의 채용에 있어 인공지능에게 서류심사를 맡기는 것이 적합한지에 대한 논쟁이 있으며, 더욱이 인공지능 챗봇과 대화를 하다가 청소년이 극단적 선택을 하는 안타까운 사례도 발생하고 있다. 인공지능의 인과 추론 방식을 충분히 이해하여 정직한 인공지능을 활용할 수 있는 단계가 되어야만 이러한 문제들을 해결하여 안전하고 유익한 방식으로 인공지능을 활용할 수 있을 것이다. 설명 가능한 인공지능이 탄생한다면, 인공지능과 인간의 진정한 교감의 기폭제가 될 수 있다. 거대 언어 모형이 자신의 주장에 대해서 근거를 설명할 수 있다면, 인간과 토론도 가능할 것이고, 인간과 협력하여 새로운 지식의 창출도 가능할 것이다. 때문에 인공지능의 시작은 설명 가능 인공지능부터 시작될 것이라 조심스럽게 예측해 본다.