핸즈프리 기술로 확장된 현실에 실감나는 터치감을 더하다
촉각 팔찌와 '유사 햅틱' 비주얼로 가상 터치를 더욱 실감 나게 합니다.
날짜:
2023년 2월 22일
원천:
라이스 대학교
요약:
연구원들은 가상 현실(VR)에서 사실적인 촉각 피드백을 전달하기 위한 새로운 핸즈프리 접근 방식을 시연했습니다. 그들의 '다감각 의사 햅틱'은 헤드셋 시각과 손목 팔찌의 촉각 피드백을 조합하여 터치 감각을 전달합니다.
전체 이야기
일부 사람들이 확장 현실에서 근무 시간의 대부분 또는 전부를 보내는 그리 멀지 않은 미래를 내다보며 라이스 대학, 베일러 의과 대학 및 메타 현실 연구소의 연구원들은 믿을 수 있는 촉각을 제공하는 핸즈프리 방법을 발견했습니다. 가상 환경에서의 경험.
가상 현실(VR)의 사용자는 일반적으로 촉각 감각을 경험하기 위해 햅틱 컨트롤러 또는 장갑과 같은 손에 쥐거나 착용하는 장치가 필요했습니다. Advanced Intelligent Systems에 온라인으로 게시된 개방형 연구에 설명된 새로운 "다감각 유사 촉각" 기술은 VR 헤드셋의 시각적 피드백과 손목을 쥐고 진동시키는 기계식 팔찌의 촉각 감각을 조합하여 사용합니다.
연구 공동 저자인 Marcia O'Malley는 "웨어러블 기술 설계자들은 보다 현실적인 가상 경험을 제공하기를 원하며 햅틱의 경우 우리가 물체를 조작할 때 손가락 끝에서 느끼는 힘을 재현함으로써 이를 위해 주로 노력했습니다."라고 말했습니다. , Rice의 Thomas Michael Panos 가족 기계 공학 교수. "이것이 오늘날의 웨어러블 햅틱 기술이 종종 부피가 크고 손을 방해하는 이유입니다."
O'Malley는 사람들이 가상 환경에서 더 많은 시간을 보내면서 편안함이 점점 더 중요해질 것이기 때문에 앞으로 문제가 될 것이라고 말했습니다.
Rice의 Mechatronics and Haptic Interfaces Laboratory를 지휘하는 O'Malley는 "장기 착용을 위해 우리 팀은 새로운 패러다임을 개발하기를 원했습니다."라고 말했습니다. "손목에서 믿을 수 있는 햅틱 피드백을 제공하면 손과 손가락이 자유로워져 우리에게 이미 익숙한 스마트 시계처럼 '하루 종일' 착용할 수 있습니다."
햅틱은 촉각을 말합니다. 여기에는 피부를 통해 전달되는 촉각 감각과 근육과 힘줄의 운동감각이 모두 포함됩니다. 우리의 뇌는 의식적인 노력 없이 신체의 상대적인 위치와 움직임을 지속적으로 감지하기 위해 운동감각적 피드백을 사용합니다. 유사 햅틱은 뇌가 촉각 및 운동감각적 입력을 수신, 처리 및 반응하는 방법을 이용하여 생성되는 시뮬레이션된 경험인 햅틱 환상입니다.
"의사 햅틱은 새로운 것이 아닙니다."라고 O'Malley는 말했습니다. "시각적 및 공간적 착시는 20년 이상 연구되고 사용되었습니다. 예를 들어 손을 움직일 때 뇌는 손이 어디에 있어야 하는지에 대한 운동감각을 갖게 되고, 눈이 다른 곳에서 손을 본다면 뇌는 이러한 불일치를 의도적으로 만들어 뇌가 '내 손이 물체에 부딪쳤다'고 해석하는 촉각적 환상을 만들 수 있습니다.
"의사 햅틱의 가장 흥미로운 점은 손을 방해하는 하드웨어 없이 이러한 감각을 만들 수 있다는 것입니다."라고 그녀는 말했습니다.
가상 환경의 설계자는 수년 동안 의사 햅틱 환상을 사용해 왔지만 새로운 연구를 주도하는 질문은 다음과 같습니다. 시각적으로 구동되는 의사 햅틱 환상이 손목에서 조정되고 핸즈프리 촉각 감각으로 강화되면 더 사실적으로 보이도록 만들 수 있습니까? ?
O'Malley's의 전 학생이자 현재 워싱턴 레드몬드에 있는 Meta Reality Labs의 연구 과학자인 Evan Pezent는 O'Malley 및 동료들과 함께 가상 촉각 시각적 단서가 상호 조정된 촉각 감각으로 증강되는 실험을 설계하고 수행했습니다. Meta가 이전에 발명한 기계화 팔찌 Tasbi.
Tasbi에는 손목을 조이고 조일 수 있는 전동 코드와 손목의 상단, 하단 및 측면에 배열된 6개의 작은 진동 모터(휴대폰에서 무음 알림을 전달하는 동일한 구성 요소)가 있습니다. . 이들이 언제 얼마나 많이 진동하고 팔찌가 언제 얼마나 세게 조이는지는 서로 그리고 가상 현실에서 사용자의 움직임과 함께 조정될 수 있습니다.
초기 실험에서 O'Malley와 동료들은 사용자에게 다양한 정도의 강성을 시뮬레이션하도록 프로그래밍된 가상 버튼을 누르도록 했습니다. 이 연구는 지원자들이 4개의 가상 버튼 각각에서 다양한 정도의 강성을 감지할 수 있음을 보여주었습니다. 시스템이 시뮬레이션할 수 있는 물리적 상호 작용의 범위를 추가로 입증하기 위해 팀은 스위치 당기기, 다이얼 회전, 물체 잡기 및 쥐기 등 9가지 다른 일반적인 유형의 가상 상호 작용에 시스템을 통합했습니다.
O'Malley는 "손목의 햅틱 피드백과 시각적 의사 햅틱을 결합하면서 손을 자유롭게 유지하는 것은 VR에서 매력적인 사용자 경험을 설계하는 흥미롭고 새로운 접근 방식입니다."라고 말했습니다. "여기서 우리는 물체 강성에 대한 사용자 인식을 조사했지만 Evan은 활과 화살을 쏘거나 물체의 질량과 관성을 인식하는 것과 같은 양손 상호 작용을 포함하여 이 접근 방식으로 달성할 수 있는 광범위한 촉각 경험을 시연했습니다."
연구 공동 저자로는 Rice의 Alix Macklin, Baylor의 Jeffrey Yau, Meta의 Nicholas Colonnese가 있습니다.
이 연구는 Meta Reality Labs Research의 자금 지원을 받았으며 Macklin의 작업은 National Science Foundation 교육 보조금(1828869)의 지원을 받았습니다.
출처 : https://www.sciencedaily.com/