생각하는 컴퓨터의 등장
한 남자가 여자의 이름을 묻는다. “뭐라고 부르면 되죠? 이름이 있나요?” 여자는 잠시 뜸을 들인 뒤 대답한다. “음… 네, 사만다예요.” 남자는 궁금하다. 여자의 이름은 어떻게 생긴 것인지. “그 이름은 어디서 얻었나요?” 여자가 실토한다. “사실 방금 제가 혼자 지은 이름이에요.”
컴퓨터가 마치 사람처럼 배우고, 생각하는 세상이 오면 어떨까. 최근 개봉한 영화 ‘그녀(Her)’에 등장하는 '오에스원(OS1)’처럼 말이다. 주인공 테오도르가 OS1을 처음 컴퓨터에 설치한 이후 이름을 물어봤더니, OS1은 100분의 2초 만에 ‘아기 이름 짓는 법’이라는 책에 나오는 18만개의 이름 중 하나를 선택해 자신의 이름으로 삼는다. 발음할 때 소리가 좋다는 그럴듯한 이유까지 덧붙여서 말이다. 영화는 이 운영체제를 이렇게 소개한다.
“단순한 운영체제가 아닙니다. 또 하나의 의식입니다.”
최근 미국 실리콘밸리를 중심으로 한 기술 기업이 ‘딥러닝(Deep Learning)’ 기술에 손을 뻗고 있다. 딥러닝 기술은 컴퓨터가 마치 사람처럼 생각하고 배울 수 있도록 하는 기술을 말한다. 컴퓨터가 ‘또 하나의 의식’이 되는 셈이다.
영화 ‘그녀’의 한 장면
인공신경망 잇는 기계학습법
딥러닝은 사물이나 데이터를 군집화하거나 분류하는 데 사용하는 기술이다. 예를 들어 컴퓨터는 사진만으로 개와 고양이를 구분하지 못한다. 하지만 사람은 아주 쉽게 구분할 수 있다. 이를 위해 ‘기계학습(MachineLearning)’이라는 방법이 고안됐다. 많은 데이터를 컴퓨터에 입력하고 비슷한 것끼리 분류하도록 하는 기술이다. 저장된 개 사진과 비슷한 사진이 입력되면, 이를 개 사진이라고 컴퓨터가 분류하도록 한 것이다.
데이터를 어떻게 분류할 것인가를 놓고 이미 많은 기계학습 알고리즘이 등장했다. ‘의사결정나무’나 ‘베이지안망’, ‘서포트벡터머신(SVM)’, ‘인공신경망’ 등이 대표적이다. 이 중 딥러닝은 인공신경망의 후예다.
딥러닝은 인공신경망의 한계를 극복하기 위해 제안된 기계학습 방법이다. 딥러닝의 시작은 인공신경망 역사와 맞닿아 있기 때문이다. 1943년, 미국 일리노이 의대 정신과 부교수였던 워렌 맥컬록은 당시 의대 학생이었던 제리 레트빈과 월터 피츠와 함께 ‘신경 활동에 내재한 개념들의 논리적 계산’이라는 제목의 논문을 발표한다. 이들은 이 논문에서 신경망을 ‘이진 스위칭’ 소자가 복잡하게 연결된 네트워크로 모형화했다. 인공신경망을 개념화한 최초의 논문이다.
딥러닝이 처음 제안된 때는 인공신경망이 탄생한 지 40여년이 지난 1980년대다. 캘리포니아 대학 심리학자와 컴퓨터 관련 학자들의 신경망 연구를 요약한 <PDP>라는 저서가 등장하면서부터다.
딥러닝이 부활의 신호탄을 쏘아올리게 된 건 2004년이다. 제프리 힌튼 교수가 RBM이라는 새로운 딥러닝 기반의 학습 알고리즘을 제안하면서 주목을 받기 시작했다. 곧바로 드롭아웃이라는 알고리즘도 등장해 고질적으로 비판받는 과적합 등을 해결할 수 있게 됐다.
‘신경 활동에 내재한 개념들의 논리적 계산’, 1943, 워렌 맥컬록
딥러닝의 두 갈래
딥러닝의 핵심은 분류를 통한 예측이다. 수많은 데이터 속에서 패턴을 발견해 인간이 사물을 구분하듯 컴퓨터가 데이터를 나눈다. 이 같은 분별 방식은 두 가지로 나뉜다. ‘지도 학습(supervised learning)’과 ‘비지도 학습(unsupervised learning)’이다. 기존 기계학습 알고리즘은 대부분 지도 학습에 기초한다. 지도 학습 방식은 컴퓨터에 먼저 정보를 가르치는 방법이다. 예를 들어 사진을 주고 “이 사진은 고양이”라고 알려주는 식이다. 컴퓨터는 미리 학습된 결과를 바탕으로 고양이 사진을 구분하게 된다.
비지도 학습은 이 배움의 과정이 없다. “이 사진이 고양이”라는 배움의 과정 없이 “이 사진이 고양이군”이라고 컴퓨터가 스스로 학습하게 된다. 지도 학습과 비교해 진보한 기술이며, 컴퓨터의 높은 연산 능력이 요구된다. 구글이 현재 비지도 학습 방식으로 유튜브에 등록된 동영상 중 고양이 동영상을 식별하는 딥러닝 기술을 개발한 상태다.
구글은 음성인식과 번역을 비롯해 로봇의 인공지능 시스템 개발에도 딥러닝 기술을 도입하고 있다. 대표적인SNS 업체 페이스북은 딥러닝을 뉴스피드와 이미지 인식 분야에 적용하고 있다.
페이스북의 ‘딥페이스’ 동작 원리
유튜브 영상에서 고양이를 찾아내는 구글의 딥러닝 기술
개 품종을 알려주는 MS의 ‘프로젝트 아담’
딥러닝 좇는 구글·페이스북·MS·트위터
기술 기업이 딥러닝을 활용하는 분야는 주로 사진과 동영상, 음성 정보를 분류하는 쪽이다. 데이터의 양이 풍부하고, 정확성을 요구하기 때문이다.
우선 구글은 지난 2012년 앤드류 응 스탠포드대학교 교수와 함께 1만6천개의 컴퓨터와 10억개 이상의 신경네트워크를 구성해 심층신경네트워크(DNN)를 구현한 바 있다. 구글은 DNN 기술을 활용해 유튜브에 등록된 동영상 중 중에서 컴퓨터가 고양이를 영상을 인식하도록 하는 데 성공했다.
페이스북도 딥러닝 기술을 적용해 ‘딥페이스’라는 얼굴인식 알고리즘을 2014년 3월 개발했다. 이 알고리즘 개발을 주도한 조직이 얀 리쿤 교수가 이끌고 있는 인공지능 그룹이다. 페이스북은 딥페이스 알고리즘으로 전세계 이용자의 얼굴을 인식하고 있다. 인식 정확도는 97.25%로 인간 눈과 거의 차이가 없다. 인간의 눈은 97.53%의 정확도를 지닌 것으로 알려졌다. 페이스북은 이용자가 올린 이미지의 얼굴의 옆면만 봐도, 어떤 이용자인지 판별해낼 수 있다.
트위터가 인수한 매드비츠라는 업체는 페이스북 인공지능 연구소에서 일했던 클레멩 파라벳과 루이스 알렉산드레 에트자드 헤이다리, 얀 리쿤 뉴욕대학교 교수가 설립한 업체라는 점이 흥미롭다. 매드비츠도 딥러닝 기술을 사진 분석에 활용하는 업체다.
이미지기반 딥러닝 기술업체 매드비츠를 인수한 트위터
MS도 딥러닝 기술로 재미있는 연구를 진행하는 중이다. MS는 2014년 7월 개최한 ‘MS 리서치 학술회의 2014’에서 개 품종을 컴퓨터가 분류하는 딥러닝 기술을 공개했다. 윈도우폰의 지능형 음성 비서 ‘코르타나’와 연동해 사용자가 스마트폰으로 찍은 개 사진을 보고 컴퓨터가 품종을 알려주는 기술이다. MS 리서치는 이 기술에 ‘프로젝트 아담’이라는 이름을 붙였다. 프로젝트 아담의 바탕이 되는 개 사진은 약 1400만장 정도다. MS는 구글이 소개한 DNN 기술과 비교해 약 50배나 더 빠른 분석 속도를 낸다고 설명했다.
네이버, 음성인식과 뉴스 분석에 딥러닝 기술 적용
국내에서도 딥러닝 연구가 활발하다. 네이버가 그 중심에 있다. 네이버는 음성인식을 비롯해 테스트 단계의 뉴스 요약, 이미지 분석에 딥러닝 기술을 적용하고 있다. 이미 네이버는 딥러닝 알고리즘으로 음성인식의 오류 확률을 25%나 개선했다. 네이버 딥러닝랩의 김정희 부장은 지난해 열린 개발자 행사 ‘데뷰 2013’에서 딥러닝을 적용하기 전과 후를 “청동기 시대와 철기 시대와 같다”로 비유하기도 했다. 그만큼 성능 향상이 뚜렷했다는 의미다.
네이버는 야후의 썸리와 같은 뉴스 요약 서비스에도 딥러닝을 적용해 실험하고 있다. 기사에 제목이 있을 경우와 없을 경우를 분리해 기사를 정확히 요약해낼 수 있는 알고리즘을 개발하는 데 이 방식이 활용되고 있다. 2D 이미지 분석에 적용하기 위해 연구소 단위에서 실험 중이다.
네이버의 ‘링크’
2014년 6월 김범수 카카오 의장이 케이큐브를 통해 투자한 회사도 딥러닝 기술을 보유하고 있는 업체다. 다음도 딥러닝에 적잖은 투자를 이어가고 있다. 딥러닝 알고리즘을 활용하는 스타트업도 서서히 늘어나는 추세다.
2017년이면 전세계 컴퓨터의 10%가 데이터 처리가 아닌 딥러닝으로 학습하고 있을 것이라는 전망도 나왔다. 사람처럼 스스로 생각하는 컴퓨터. 또 하나의 의식 ‘사만다’의 등장이 머지않았다.