https://youtu.be/tnqjXUozMA0
네이버는 왜 로봇친화적 사옥을 지었을까?
MIT 로봇석학이 말하는네이버 1784의 의미!
[그린팩토리에서 만난 사람들]
MIT 김상배 교수 "로봇이 할 수 있는 것?
스마트폰이 하지 못할 모든 일들"
로봇은 오랜 시간 우리와 함께 했습니다.
소설과 영화, 만화에서, 혹은 공장에서.
다만 우리의 일상에서만은 여전히 보기 어렵습니다.
언제 오게 될까요? 어떤 모습으로 오게 될까요?
이에 대해 네이버랩스 테크니컬 컨설턴트이자 MIT Biomimetics Lab을 이끌고 있는 김상배 교수에게 물었습니다.
로봇이 할 수 있는 것? 스마트폰이 하지 못할 모든 일들 - MIT 김상배 교수 인터뷰
로봇은 오랜 시간 우리와 함께 했습니다.
소설과 영화, 만화에서, 혹은 공장에서. 다만 우리의 일상에서만은 여전히 보기 어렵습니다.
언제 오게 될까요? 어떤 모습으로 오게 될까요?
이에 대해 네이버랩스 테크니컬 컨설턴트이자
MIT Biomimetics Lab을 이끌고 있는 김상배 교수에게 물었습니다.
Q. 일상에서 사람을 돕는 로봇, 왜 여전히 만나기 어렵나요?
로봇들은 다 공장에 있었죠. 그 안에서 이미 정해진 단순노동을 했습니다.
그런데 근래에 와서 인공지능이나 딥 러닝 등을 통해 다양한 알고리즘이 급속도로 발전했어요. ...
www.naverlabs.com
로봇이 할 수 있는 것? 스마트폰이 하지 못할 일들! 김상배 MIT교수
네이버랩스 기술 컨설턴트로 네이버랩스의 기술 연구에 함께 해주고 계신 김상배 MIT 교수 인터뷰입니다
로봇들은 다 공장에 있었죠. 그 안에서 이미 정해진 단순노동을 했습니다. 그런데 근래에 와서 인공지능이나 딥 러닝 등을 통해 다양한 알고리즘이 급속도로 발전했어요. 이를 바탕으로 많은 공학자들이, 로봇을 어떻게 공장 바깥으로 빼낼 수 있을까, 어떻게 사람과 접촉하거나 직접 도움을 줄 수 있을까를 더 많이 고민하게 되었습니다.
이제 머지않은 일이긴 한데요. 그럼에도 로봇이 일상에서 사람을 돕는다는 것은 여전히 어려운 일이에요. 공장과 일상은 많이 다릅니다. 공장에서는 어떤 물건을 집어서 이동시키는 것과 같이 단순한 작업들에 최적화되어 있죠. 정확한 위치 제어만으로도 상당히 많은 것들을 해결할 수 있었습니다.
그런데 우리가 일상에서 하는 일을 보면, 도무지 정형화되어 있질 않아요. 예를 들어 매일 하는 설거지도, 매일 다르게 하죠. 그릇들의 무게나 강도도 서로 다릅니다. 빨리 하려면 그릇들이 서로 부딪히는 경우가 많은데, 깨지지도 않아야 합니다. 이런 사소한 노동을 하려고 해도 지금의 로봇 알고리즘에는 빠진 부분이 많아요.
예를 들어, 제가 주머니에 손을 넣어서 500원짜리 동전을 꺼내요. 그런데 그 사이에 제 손가락이 도대체 무슨 일을, 어떻게 한 걸까요? 잘 모르겠고, 설명하기도 어렵죠. 그냥 두뇌나 신경의 어떤 하부에서 알아서 한 일일 뿐이에요. 이런 숨겨진 과정과 기능이 사실 로봇에게도 필요하다는 것을 인식하지 못하죠. 공장용 로봇 팔을 가져와서 카메라 달고 머신 러닝 돌리면 사람처럼 금방 작동하리라는 막연한 기대는 아직까지도 있어요. 제가 보기엔 큰 부분이 빠져있고, 이를 계속 더 많이 들여다 봐야죠.
어떻게 보면 로봇 기술을 개발하는데 정말 주목받아야 될 부분이 주목받지 못하거나, 별로 주목을 안받아도 되는데 집중되는 문제가 생겨요. 예를 들어서 미니치타가 백플립을 한 걸 보고 온 세상이 난리가 났죠. 그런데 실은 사람 기준에서 보는 거에요. 실제로 프로그램 상에서는 백플립보다 안 넘어지고 잘 걸어 다니는 게 천 배 만 배 어려워요. 이와 같은 로봇 과제들이 많은 실생활에서 이뤄지겠죠.
네이버랩스유럽에서 만난 김상배 교수
최근 교수들 사이에서 많이 얘기하는 건, 어떤 태스크를 위해 기존 기술을 다시 최적화할지, 전에 쓰던 기술을 포기하고 머신 러닝으로 대체할지 고민하는 경우가 생겨요. 만약 섞는다면 어떤 식으로 아키텍처링을 해야 되나. 태스크가 조금만 복잡해져도 이 아키텍처링이 잘 되지 않으면 로봇이 제대로 작동하지 않을 거에요.
지금 AI라고 하면 대부분 머신 러닝이나 딥 러닝, 뉴럴 네트워크 기반으로 문제를 해결하는 경우가 많은데, 여러가지의 뉴럴 네트워크를 조립하는 것에 대한 발전이 있을 거라고 기대합니다. 얼굴 인식만 하는 AI, 사람만 피해 다니는 AI, 이렇게 특수화된 뉴럴 네트워크들이 굉장히 많이 생기겠죠. 이제 이걸 어떻게 조합할 것이냐, 좀 더 복잡한 기능을 위해 어떻게 잘 구성할 것이냐, 결국은 데이터 드리븐이냐 모델링 드리븐이냐를 어떻게 잘 섞고 구성할 것이냐는 논의가 제일 많아요.
결국 노동일 것 같아요. 왜냐하면, 노동이 요구되지 않는 일들은 이미 스마트폰이 거의 다 하고 있거든요. 스마트폰이 하지 못하는 일은 무엇일까요? 정보를 전달하거나 누군가와 소통하는 것처럼 지능적인 일들을 이미 다 하고 있지만, 대신 스마트폰엔 모터 하나 달려있지 않죠. 몸이 불편한 분에게 스마트폰이 물 한 컵을 가져다 주진 못한다는 거죠
물론 지금의 로봇들은 피지컬 인텔리전스가 여전히 부족하기 때문에 더 연구할 부분이 굉장히 많기는 합니다. 지나치게 복잡한 동작과 인터랙션이 필요 없는 서비스부터 시작되겠죠. 그래서 지금 많은 사람들이 딜리버리를 먼저 생각하잖아요. 로봇이 집 앞에서 문을 두드리는 것까지는 아니더라도, 주소 A에서 주소 B로 배달을 하는 서비스처럼 사람에게 도움이 되는 노동을 하는 거죠
MIT 미니치타는 4족보행 로봇을 연구하는 치타 시리즈 중에 제일 마지막에 개발된 것입니다. 그래서 성능이 제일 뛰어나요. 사이즈도 작기 때문에 충격에 견디는 능력이 굉장히 좋아요. 실험을 하루에 백 번도 할 수 있는 그런 로봇이죠. 또한 센서 없이 충격 등을 잘 인식하려면 로봇 디자인이 굉장히 잘 되어야 하는데, 그런 측면에서도 미니치타는 굉장히 좋죠.
AI for Robotics 워크샵에 참가한 김상배 교수
근래에 균형을 잘 잡으면서 방향 지시에 맞춰 힘을 제어하는 알고리즘을 개발하고 있어요. 그 알고리즘을 적용했을 때 미니치타가 가장 뛰어나면서도 지금까지 상상하기 어려웠던 동작들을 보여주기 시작했어요. 로봇계의 수퍼히어로급이라고 볼 수 있죠. 2m 위에서 떨어뜨리거나, 스텝을 1초에 10번씩 밟는 것 같이 지금까지의 다른 로봇들은 상상하기 어려운 동작들을 할 수 있어요.
이러한 미니치타의 요소기술들이 먼 미래에는 2족 로봇에 적용될 수 있을 것이라 생각해요. 건설 현장같은 곳에서 팔을 쓰며 다닐 수 있게 되겠죠. 2족 로봇이 좋은 점 중 하나는 위치가 높다는 거에요. 4족 로봇이 책장이나 선반에서 뭔가를 집으려면 덩치가 커져야 되는데, 2족 로봇은 상대적으로 작으면서도 사람과 같은 동작을 비슷하게 할 수 있어요. 아직은 2족 로봇이 바로 우리 일상에 들어오기는 어렵거나 위험하기도 하지만 궁극적인 방향인 건 맞고, 이를 위해 지금의 미니치타 요소기술들이 활용될 것이라고 생각합니다.
----------------------------------------------------------------------------------------------------------------------
로봇 공학자인 김상배 [출처:중앙일보]
https://www.joongang.co.kr/article/25269091