문서번호 |
2011–A-제-001 |
보존기간 |
영구 보존 |
보고일자 |
2011.11.4(금) |
SunmoonBit 22기 2조
IIN
목 차
1. 개 요
가) 배 경
나) 목 적
다) 프로젝트 소개
2. 제스처 인식의 개요
3. 증강현실의 개요
4. 프로젝트 팀 소개
가) 팀 원
5. 사용자 요구사항
6. 예상 결과 및 기대 효과
7 . 개발 환경 및 요구 기술
8 . 프로젝트 진행 예상 일정
1 개 요
가) 배 경
운전을 할 수 있다는 것은 우리에게 많은 이점을 주지만 교통사고라는 무서운 리스크를 안게 된다. 교통사고는 매년 증가하고 있으며 교통사고의 중요한 원인 중 하나는 운전도중 한눈을 파는 것이다. 아이러니 하게도 여러 가지 기능들로 운전자를 돕기 위해 개발된 네비게이션등의 보조 장비는 운전자에게 한눈 팔기를 강요한다. 작은 화면은 글씨를 집중해서 보지 않으면 잘 보이지 않기 때문에 운전도중 네비게이션 화면에 집중하게 만들고 운전을 돕기 위해 방향을 지시해주는 여성의 목소리나 알림 소리는 운전자가 운전을 집중하도록 돕기 위해 만들어 졌지만 소리가 나면 소리가 난 장소에 집중하게 되어 한눈을 팔게 되는 경우도 종종 있다. “이를 개선하기 위해서 무엇이 필요할까?” 라는 생각에 포커스를 맞췄을 때 우리는 이러한 결론에 도달하게 되었다. “ 운전자의 시야를 많이 움직이지 않아도 되는 곳에 디스플레이를 두면 된다.” 한마디로 운전석의 앞 유리와 사이드 미러에서 운전에 필요한 모든 정보를 전달해 줄 수 있으면 된다.
또한 우리가 운전도중 한눈을 파는 이유 중 하나는 운전도중 무언가를 찾을 때이다.
네비게이션은 대략적인 위치밖에 알려주지 않는다. 우리가 찾는 곳이 네비게이션에 나와있지 않는 특정 목적지라고 가정했을 때. “목적지에 거의 도착하였습니다.” 이와 같은 알림은 운전자에게 운전에서 집중을 돌려 주변을 살펴보게 만든다. “이를 방지하기 위해
맥스처가 목적지를 자동차 유리에 표시해 준다면 이를 방지할 수 있지 않을까?”
라는 생각을 해보았다. 네비게이션에서 전해주는 지도상의 2차원 좌표를 이용한 불확실한 정보가 아니라 자동차에 달린 카메라가 네비게이션 처럼 정보를 받아온 후에 카메라에 찍힌 실제 데이터와 비교를 해서 운전자가 찾을 필요 없이 대신 찾아 준다. 또한 차량의 부가 기능을 사용할 때 부자연스러운 인터페이스로 문제가 발생할 경우가 있다. 사람과 기계간의 상호작용에 있어서 보다 효과적인 상호작용을 하기 위해서는 두 개체 간의 의사를 잘 이해할 수 있는 편리고 자연스러운 인터페이스가 요구 된다. 이와 같이 운전에서의 불편한 점과 개선되었으면 하는 점을 생각하다 이 프로젝트를 구상하게 되었다.
나) 목 적
보통의 자동차 내부를 들여다 보게 되면 네비게이션이 장착되어 있는 것을 볼 수 있다. 네비게이션(Navigation System)은 현재 위치로부터 목적지까지의 거리 및 교통 상황을 실시간으로 안내하는 도로 및 교통정보 제공 시스템이다. 이는 다양한 편리성과 기능으로 인해 수요가 점점 높아져가고 있으며 보편화 돼가고 있다.
그러나 네비게이션은 전자지도를 화면에 실시간으로 출력함으로써 실제 자동차가 이동하는
방향에 따른 정확한 시야확보가 어려운 경우가 있으며, 해당하는 특정 공간에서만의 사용, 불필요한 정보를 주는 경우도 있다. 또한 자신이 원하는 특정건물 이라던지 장소에 대한 종합적인 정보가 많이 부족하다.
또한 본격적으로 도래할 첨단 정보 시대를 맞아 컴퓨터를 내장한 기계들은 이미 현대 사회의 구성 요소가 되었고 우리 차량에도 영향은 날로 증대되고 있다. 아직도 우리는 차량의 부가 기능을 조작하기 위하여 버튼을 사용하는 경우가 대다수이다. 보다 자연스러운 인터페이스 기술의 개발은 아직 미미하다. 사람의 손의 제스처는 언어와 함께 사람과 사람간의 상호작용을 위한 가장 자연스런 도구로서, 손의 제스처를 통해 사람과 컴퓨터간의 가장 자연스러운 인터페이스를 구현하려는 연구는 가상현실 등에서 폭발적으로 증대 되고 있다. 이에 따라 본 프로젝트에서는 네비게이션에 국한 되지 않고 실제로 운전을 하면서 차량의 현재 위치, 사용자가 원하는 주변건물의 대한 정보 및 원하는 위치정보 서비스를 직접 운전을 하며 확인할 수 있도록 증강현실기법을 적용한 새로운 시스템, 기존에 인터페이스를 자연스러운 제스처 인터페이스로 구현된 새로운 유저인터페이스를 제안한다.
다) 프로젝트 소개
본 프로젝트는 차량의 앞 유리를 디스플레이로 활용한다. 디스플레이에 기존에 차량의 기능을 관리 할 수 있는 기능을 제공(음악 재생, 사진 촬영, 동영상 촬영, 동영상 시청)한다. 앞차, 뒤차와의 거리를 측정하여 보여 줄 것이다. 차선 인식을 통해 졸음 운전 방지를 할 수 있다. 증강현실을 이용하여 보다 현실적인 길안내와 부가적인 안내정보(문화재, 관광명소, 먹거리, 볼거리 등)를 정합하여 사용자에게 보다 나은 현실감을 제공한다
2. 제스처 인식의 개요
2.1 제스처의 정의
일반적으로 제스처는 인간의 생각이나 감정을 표현하고 강조하기 위한 신체 또는 팔다리의 움직임이라고 정의 되어진다. 이는 단순히 일상 생활에서의 의미를 나타낸 것으로,카메라를 통하여 입력되는 2차원 영상에서의 제스처는 시공간 속에서 어떤 의미를 지닌 연속적인 패턴의 집합이라고 정의할 수 있다.
2.2 제스처 인식 과정
제스처 인식은 모델링(Modeling), 해석(analysis), 인식(recognition)의 3단계로 이루어진다.
제스처 모델링은 인식할 제스처의 수학적 모델을 만드는 것이다. 모델링을 하는데 사용된
접근법들은 제스처 인식의 중추적 역할을 하고 제스처 해석의 성능에 영향을 준다. 모델이 만들어지면, 비디오 입력으로부터 파라미터를 추출하고 계산을 통해 제스처를 인식한다.
2.3 제스처 인식 기술 분류
A. 기계식 시스템
B. 자기식 시스템
C. 광학식 방식
D. 음향식 시스템
E. 영상(시각) 기반 제스처 인식
- 3차원 모델 이용법
- 2차원 모델 이용법
3. 증강현실의 개요
- 증강현실의 정의
영어로 ‘AR(Agumented Reality)’는 ‘증강현실’ 또는 ‘확장현실’로 번역한다. 증강현실은 현재 사용자가 보고 있는 사물이나 장소를 사용하여 기계 안에 만든 공간이다. 가상 현실이 100% 가짜로 만든 공간인 것과 달리 증강현실은 눈에 보이는 실제 공간에 각종 정보와 가상공간이 추가된 공간이라는 차이가 있다
증강현실 서비스는 지식의 입출력에 대한 새로운 방향을 제시한다. 과거처럼 책을 사서 외워야 하는 시대에서 다시 한번 변화하는 것이다. 과거에는 여행 책자를 들고 여행을 다녀야 했지만 이제는 휴대폰 하나만 들고 다니면 된다. 여행을 하다가 본 멋진 유적에 대한 설명이 궁금하다면 휴대폰 카메라를 건물 쪽으로 향하는 것으로 충분하다. 휴대폰 화면에 표시되는 건물 영상 위에 건물에 대한 정보와 건물 안의 유물에 대한 정보가 글과 그림으로 표시된다. Mobilizy사에서 만든 ‘Wikitude AR’ 프로그램이 바로 이런 일을 하는 프로그램이다. 휴대폰을 대면 유적이나 유명 건물에 대한 설명이 표시되므로 관광가이드가 필요 없다. 길을 잃어도 휴대폰만 켜면 근처 지하철역까지 가능 방향이 표시되고, 처음 가본 나라의 밤하늘 별자리가 궁금할 때도 별자리로 휴대폰을 향하기만 하면 별자리 소개가 나타난다. 먼 미래의 이야기가 아니라 이미 해외에서 사용되고 있는 증강현실 프로그램 이야기이다.
4. 프로젝트 팀 소개
가) 팀 원
조장 : 김한울
조원 : 김동중, 양승훈, 이수민, 황지환
5. 사용자 요구사항
이름 |
설명 |
유형 |
위치검색 |
실제 운전자의 현재 위치를 나타내어 준다. |
기능 |
경로탐색 |
운전자가 원하는 경로탐색 및 주변정보를 얻어올 수 있다. 목표 지점까지의 각 특정 위치에 대한 거리를 알 수 있다. |
기능 |
특정 건물 정보 수정 |
운전자가 원하는 주변 건물에 대한 정보수정이 직접 가능하다. |
기능 |
특정 건물 정보 업로드 |
운전자가 원하는 주변 건물에 대한 업데이트/업로드가 직접 가능하다. |
기능 |
제스처 |
사용자의 의미 있는 제스처를 인식하여 해당 기능을 수행한다. |
기능 |
졸음 방지 |
인식된 차선에서 차량이 급변하면 알람으로 알려 준다. |
기능 |
앞차,뒷차와의 거리 |
앞차와 뒷차와의 거리를 디스플레이에 알려준다. |
기능 |
<표 1 – 요구사항>
6. 예상 결과 및 기대 효과
본 프로젝트에서는 운전자가 직접 운전을 하며 전면 유리를 통해 모든 정보가 제공되므로 일반적인 네비게이션의 맵 이미지 데이터 등을 따로 제작, 관리하지 않아도 되는 경제적 이점이 있다. 또한 근처에 중요한 건물의 정보를 실시간으로 바로 제공함으로써 사용자가 운전하는 지역 정보를 쉽게 알 수 있다.
7. 개발 환경 및 요구 기술
가) 개발 환경
- Windows 7
- Visual Studio 2008
- OpenCV
- Expression Blend 3
- Camera API
- GPS
- ASP.NET
나) 요구 기술
① OpenCV, 실외 측정, GPS
- 영상 처리와 영상에 비춰지는 도로의 실거리 계산
8. 프로젝트 진행 예상일정