구글이 만드는 신세계는 어떤 세상일까?
ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ
'기계와 인간의 자연스런 대화, 암을 비롯한 질병의 진단, 사용자의 환경·습관에 맞춰서 주제별·상황별 사진 찿아주기, 불량 식재료 찿기, 아이폰과 스마트폰을 활용한 통역 등' 구글이 인공지능(AI)을 통해 실현시킨 것들이다. 이세돌 9단과의 바둑 대결에서 승리하며 일반인들에게 '기계에 대한 두려움'을 안기기도 했던 AI는 이제 일상생활 속으로 깊숙이 파고들고 있다. AI는 어떤 서비스·상품까지 가능할까? 작년 11월 말 AI를 선도하고 있는 구글이 아시아·태평양 기자 60여명을 불러 놓고 구글 AI 부문 최고 연구자 중 한명인 제프 딘 시니어 펠로를 비롯해 의학·음성인식비서·비전인식 등 각 프로젝트의 매니저들이 나와 자사 서비스를 선보이고 사례를 소개하는 'Made With AI' 행사를 일본 도쿄 구글재팬 사무실에서 열었다. 여기서 시니어 팰로는 "2012년까지만 해도 AI 연구계에서 표준적으로 쓰이던 신경망의 규모는 연결 수가 100만~1000만개 정도였으나 요즘 구글 모델은 10억개 이상의 연결을 이용하고 있다"고 설명했다. 어떤 내용들이 시연되었는지 살펴본다.
음성인식 수준을 넘어 인간처럼 대화하는 자연어로
"수조우 날씨 어때?" "맑고 최고기온 40도입니다." "그러면 서울은?" "맑고 최고 기온 38도입니다." "내 내일 일정 보여줘?" 그려면 내일 내 일정이 뜬다. 누군가 자신의 비서와 말하고 있는 대화처럼 자연스럽다. 하지만 이것은 사실 인간과 기계의 대화다. 구글의 AI 비서 어시스턴트와 이를 탑재한 AI 스피커(구글홈)를 통해 대화한 내용들이다. 수조우 날씨를 물어본 후 서울 날씨가 궁굼하다고 "서울 날씨는 어때'라고 물어 볼 필요가 없다. 그냥 일상 대화하듯이 '서울은'하고 되묻기만 하면 된다. 머신러닝을 통해 AI의 음성인식과 대화 기술이 늘었다는 이야기다. 기계가 사람의 목소리 등 소리를 듣고 이를 판별하는 '음성 인식', 그리고 '자연어처리' 기술은 구글이 총력을 기울이는 분야다. 구글의 음성인식을 통한 검색은 이미 119개 언어에서 가능하다. 구글은 음성인식과 자연어처리를 갈수록 인간에 가깝게 하기 위해 계속해서 데이터를 모으고 AI를 학습시키고 있다. 구글홈은 여러 명이 떠드는 상황에서도 자신에게 명령하는 목소리를 구분해낸다. 최대 6명까지 목소리를 기억할 수 있고 이에 따라 여러 명이 함께 이용할 수 있다는 게 구글의 설명이다. 아빠가 '오늘 내 일정은'이라고 물으면 아빠 일정을 보여주고, 곧 이어 딸이 '내 사진 TV에 띄어 줘'라고 명령하면 딸 사진을 보여주는 식이다. 통역·번역도 구글이 AI를 적극 활용하는 분야다. 구글 번역에는 세계 여러 나라의 글이나 표지판을 스마트폰 카메라로 읽어들여 사용자가 아는 언어로 번역해주는 '워드랜즈' 기능도 있다. 딘 시니어 펠로는 "(AI와 스마트폰을 활용해) 2~3초 내에 모국어로 통역을 해주는 이어폰도 개발했다"며 이런 기기들은 좀 더 많은 기기에 도입할 수 있을 것"이라고 말했다.
비전인식의 확장
최근 구글이 주력하는 분야 중 하나가 비전인식이다. 사진·그림에 나타난 물체가 어떤 것인지 컴퓨터가 파악하는 기술이다. 이를 활용한 대표적인게 '구글포토' 서비스다. 사물의 이름이나 인물명, 상황에 따른 명령어 등으로 사진을 찿아준다. 예를 들어 '노을'이라는 명령어를 내리면 보관된 사진 중에서 해질 녁 모습이 있는 걸 찿아준다. 이용자가 구글 어시스턴트를 통해 '톰(이용자의 아들) 사진 보여줘'라고 명령하면 '톰'이라는 여러 사람이 있더라도 아들의 사진을 주로 보여준다. AI가 이용자와 소통하면서 학습한 걸과다. 구글포토는 주제별·상황별로 사진을 모아 자동으로 앨범이나 동영상을 만들어 주기도 한다. 구글의 픽셀폰은 AI와 하드웨어가 결합한 결과물이다. 픽셀폰에는 인간의 눈처럼 카메라에 비친 물체의 원근·심도를 파악해 중심이 되는 피사체가 어떤 것인지 알아내고 이를 부각해 찍고 배경 부분은 흐릿하게 처리하는 기능도 있다. 이삭 레이놀스 구글 픽셀 카메라 담당 프로덕트 매니저는 "오늘날 스마트폰 기능은 다들 많이 비슷해졌으며 하드웨어 변화로 혁신을 꾀하는 건 한계가 있다"며 "AI와 하드웨어를 결합해야 혁신이 가능하다"고 강조했다.
의학으로 가는 AI
구글은 이날 행사에서 의학과 접목된 두가지 사례를 소개했다. 당뇨성망막병증과 유방암의 진단에 AI가 활용된 것이 그 예다. 리 펭 구글리서치 의학 영상팀 프로덕트 매니저는 "주요 실명 원인 중 하나인 당뇨성망막병증은 1년에 한 번 안구 활용만 해도 미리 발견해 낼 수 있는데 인도 등 의사가 부족한 지역에서는 이게 어려웠다"며 "13만장의 망막 사진 등을 바탕으로 머신러닝을 진행해 진단시스템을 개발했는데 의사들의 진단과 거의 비슷한 수준으로 정확도가 높아졌다"고 설명했다. 그는 'AI가 의사를 대체할 수 있느냐'는 질문에는 고개를 가로저었다. "AI가 의사를 대체할 수는 없고 다만 의사들이 좋은 판단을 내릴 수 있도록 도울 뿐"이라고 설명했다. 당뇨성망막병증이나 유방암 등의 진단에서 의사 수준까지 정확도가 높아지기는 했지만 이는 어디까지나 정확한 진단과 치료를 위한 것일 뿐이라고 펭 매니저는 강조했다. 그는 AI 사진 판독 진단의 강점으로 많은 양의 사진 데이터를 빠른 속도로 판독할 수 있다는 점을 꼽았다.
활용도 넓어지는 AI
이날 간담회 행사에 일본 식품 제조업체 관계자도 참석했다. 그가 발표한 것은 구글의 AI 플랫폼을 활용해 불량 재료를 가려내는 프로젝트. 일본 식품 기업 큐피는 유아용 가공식품 원재료인 '깍둑 썬 감자'의 불량을 찿아내는 데 AI를 활용했다. 다케시 오기노 큡기 생산부문 관리자는 "AI의 비전인식을 활용해 100만개 이상의 감자 원재료를 학습시켰다"며 "양질의 원재료를 골라내고 그 외에는 불량으로 분류하는 방식으로 효과를 거뒀다"고 설명했다. 그는 "다른 식품 업체에서도 이런 AI 머신러닝을 활용해 볼 필요가 있다"고 덧붙였다. 하지만 AI의 적용이 가시화 될수록 'AI의 발전이 결국 인류에게 위험이 되는 것 아닌가'라는 근본적 질문이 나올 수 밖에 없다. 이날 간담회 행사에서도 기자들이 여러 차례 이런 질문을 던졌다. 이에 대해 딘 시니어 펠로는 "사람처럼 생각하는 능력을 지닌 AI는 먼 훗날의 얘기"라며 "현 단계의 AI는 특정한 업무를 잘 하도록 데이터를 입력해 훈련하는 '좁은 인공지능(narrow AI)'이라고 설명했다. 검색 기능으로 IT 산업의 최강자로 군림하고 있는 구글은 빅데이터를 가진 자가 세계를 지배한다는 우려 속에 앞으로의 구글의 행보가 세인의 관심을 끌고 있는게 사실이다. 구글이 만들어 가고 있는 신세계, 그것은 인공지능이 만들어 가는 세상이다.