구글, 장애인용 인공지능 서비스 개발
시각장애인이 스마트폰으로
주변 비추면 실시간 상황 말해줘
AI, 음성 인식해 곧바로 자막 변환
청각장애인도 수화 없이 대화 가능
부정확한 발음도 학습해 소통 도와
WHO(세계보건기구)에 따르면, 전 세계 장애 인구는 10억명 이상이다.
세계인구(약 77억명)의 약 13%가 보고, 듣고, 말하고, 움직이는 데 크고 작은 어려움을 겪는다는 뜻이다.
이들은 非장애인과 달리, 스마트폰과 인공지능(AI) 등이 제공하는 혜택을 제대로 누리지 못해왔다.
구글은 지난 7일 미국 캘리포니아주 만운틴뷰에서 개최한 개발자대회 I/O 2019에서 장애인을 위한 서비스를 공개한다.
말하거나 듣지 못해도 스마트폰으로 상대방과 통화할 수 있고, AI가 스마트폰 영상의 자막을 자동으로 만들거나,
말이 어눌한 사람의 명령도 완벽하게 이해하는 기술이다.
장애인을 끌어 안은 서비스 개발 중심에는 구글의 접근성(accessibility) 팀이 있다.
소속 직원 중 일부는 본인 또는 자신의 가족이 장애를 겪고 있다.
8일 구글 본사에서 장애인용 서비스를 개발한 4명의 구글러(Googier.구글 직원)와 만났다.
주위의 사물.음성, 실시간으로 알려줘
패트릭 클래리(Clary) AI.접근성 부문 프로젝트 매니저는 척수 장애로 휠체어에 앉아 있었다.
그는 '접근성이란 개념은 장애인에만 국한되지 않는다'고 했다.
'팔이 부러진 것처럼 일시적 장애를 가진 사람이나 장바구니를 들고 있어
손을 쓰기 어려운 사람도 편리하게 줄 수 있는 서비스를 지향한다'는 것이다.
구글은 지난 3월 시각장애인을 위해 '룩아웃(Lookout)' 앱을 출시했다.
스마트폰 카메라로 앞을 비추면 '12시 방향에 사람' '11시 방향에 책상'처럼 사물의 종류와 방향을 음성으로 알려준다.
클래리 매니저는 '모든 정보를 전달하시보다 상요자에게 중요한 정보를 주는 데 집중하고 있다'고 했다.
브라이언 켐러(Kemier) 안드로이드 접근성 프로덕트 매니저는 청각장애인을 위한 2개의 앱을 개발했다.
수화 없ㅅ이 상댜방과 제대로 대화하기 어렵고, 자막 없이 동ㅇ여상을 보기 어려운 문제를 해결하기 위한 것이다.
'라이브 캡션(Live caption)'은 인터넷이 끊어진 상태에서도 AI가 스마트폰의 모든 음성.영상 파일을 인식해
자동으로 실시간 자막을 띄워준다.
이 기능은 차세대 운영체제(OS)인 안드로이드 Q에 탑재된다.
지난 2월에 내놓은 '라이브 트랜스크라이브(Live Transcribe)' 앱은 상대방이 하는 말을 곧바로 문자로 바꿔서 보여준다.
청각장애인이 수화를 모르는 의사를 만나도 설명을 모두 알아듣게 해 주는 것이다.
답은 스마트폰에 문자로 쳐서 보여주면 된다.
언어도 70개 이상 지우너한다.
한국에도 '실시간 자막'이란 앱으로 출시됐다.
언어 장애 있어도 사람.기계와 소통
졸리 카티오(Cattiau) AI 프로덕트 매니저는 언어장애가 있는 사람을 위한 '유포피아(Euphonia) 프로젝트'를 진행 중이다.
뇌졸중이나 파킨스병 등을 겪은 사람들은 말이 어눌해 가족과도 의사소통이 어려운 경우가 많다.
구글은 장애인에게 다양한 단어와 문장을 읽돌고 한 다음 AI에 이를 반복 학슴시켰다.
가령 '사과'란 단어를 어떻게 발음하는지 AI가 정확히 기억했다가 다음번에 똑같이 말하면 이를 받아적거나 음성 명령으로 처리한다.
카티오 매니저는 '현재는 영어를 쓰는 장애인이 대상이지만 향후에는 자양한 언어로 확정해 나갈 계획'이라며
'일상 대화는 30분 정도의 데이터만 있어도 된다'고 했다.
로렌조 카지오니(Caggioni) 소프트웨어 개발자는 '프로젝트 디바'에 참여하고 있다.
그에겐 당누증후군에 선천성 백내장, 언어장애를 모두 가진 22세 동생이 있다.
그의 바람은 동생이 누구의 도움 없이도 좋아하는 음악을 들을 수 있게 해주는 것,
이를 위해 AAI 스피커와 무선으로 연동된 바튼을 만들었다.
사전에 '음악 재생해줘'란 명령을 등록했다.
버튼을 누르면서 AI 스피커에 신호가 전달돼 음악이 나오도록 한 것이다. 마운틴뷰 (미국)=박순천 기자