일전에 올린 사진과는 좀 많이 변경 시켰습니다.
사용된 디바이스는
KOBOT1-1, Kinect for Window, 레이저 센서 호쿠요 URGUG01, 한성노트북 (i5, 지포스650M)입니다.
군집 로봇을 목표로 개발 하고 있는데,, 개발이 더디네요... ㅠㅠ,
OPRoS를 이용해서 로봇을 개발중이구요,
사용된 컴포넌트는
위 디바이스들의 컴포넌트와,
경로 탐색 컴포넌트, GPU-SIFT 랜드마크 인식 컴포넌트, 확장칼만필터 컴포넌트, 가상의 힘(충돌회피) 컴포넌트, 네비게이션(위치평가 및 경로 스위칭)컴포넌트입니다.
실제 로봇의 이동 경로를 어떻게 확인할 것인지 정하지 못했네요.
혹시, 위치 측정 성능 평가 하시는 고수님 위치 평가 방법(카메라 및 다른,... 장치를 사용하지 않는..)을 가르쳐 주시면 감사하겠습니다.
아래 동영상은 위의 컴포저 내용을 배포해 구동한 것입니다.
로봇 화면 동영상에서 키넥트의 영상은 좌우가 뒤집혀 보입니다. ( 오해 마시길..)
최종 목표 위치에서 오차는 약 (+-)50cm의 오차를 보이네요. 좀더 노력해서 좋은 결과로 다시 선보이겠습니다.
혹시 저와 같이 이동 로봇 제어를 오프로스로 구동하시는 분이 있다면 같이 정보를 공유하고 싶네요. ^^;
첫댓글 로봇의 위치를 정확하게 측정하기 위해서 모션캡쳐 장비를 이용했었는데, 지금 동영상에서와 같이 지역이 넓어지면 소용이 없겠군요. 실내에서 사용가능한 UWB 기반 위치인식 센서도 정밀도가 10~30cm 정도 된다고 들었는데... 레퍼런스로 사용할만한 좀 저렴하면서도 정밀도가 높은 위치인식 센서가 없을까요???
비밀글 해당 댓글은 작성자와 운영자만 볼 수 있습니다.13.05.16 12:04
스타게이져,, 저도 함 알아 봐야겠네요.. 너무 비싸진 않을런지..^^;;