|
자율주행 기술은 4차 산업혁명과 더불어 빅데이터, 사물인터넷 등의 다양한 기술이 발전하면서 급속한 성장을 보이고 있다. 이러한 자율주행 기술은 매우 많은 분야에 적용할 수 있기에 국내외를 불문하고 많은 관심을 받고 있다.
운전자의 조정 없이도 자동으로 차량을 제어할 수 있는 능력은 효율적인 교통환경 구축에 도움이 될 것이며, 이에 더하여 운전자의 부주의로 인한 안전사고를 예방함으로써 안전한 교통환경 역시 제공될 것으로 보인다. 자율주행 기술의 가능성은 민간 분야에만 국한되지 않는다. 국방 분야에서 역시 매우 중요하게 활용될 수 있다. 이 글에서는 향후 군 차량의 자율주행을 위한 센서 기술에 대한 설명과 함께 센서 기술의 중요성과 그 발전 방향에 관한 내용을 다루고자 한다.
군 차량의 자율주행 필요성
국방 분야에서 자율주행 차량은 작전의 안정성, 효율성, 유연성의 향상과 함께, 군의 작전체계를 혁신적으로 바꿀 수 있는 잠재력을 가진다. 안정성의 증대는 사고 위험을 줄일 수 있다. 급격한 도시화로 인해 복잡해진 도로환경은 교통사고의 위험성을 높이고 있으며, 국방부 통계에 따르면 2017년부터 2021년 사이에 발생한 군내 사망사고 중 차량으로 인한 사고가 자살을 제외한 다른 원인 중에 가장 많은 비중을 차지하고 있다. 군 내에서 발생하는 상해사고 역시 차량으로 인한 사고가 30%를 넘게 차지할 정도로 많다. 자율주행 자동차의 군내 도입은 이러한 차량 관련 사고의 발생을 줄여 인명피해 및 전투력 손실을 줄이고, 생명존중의 가치를 실현할 훌륭한 해결책으로 기능할 것이다.
다음으로 효율성과 유연성의 증대이다. 현재 인구절벽으로 인한 입대자원의 감소와 더불어 병 복무기간 단축, 군수부대의 개편 등으로 운전병의 숫자가 계속해서 감소하는 추세이다. 이러한 문제는 전시 상황에서 두드러질 것으로 보이는데, 개전 초기 수송 소요가 예상을 뛰어넘는 수준이 될 것으로 예측되기 때문이다. 이에 비해, 현재 보유중인 수송능력으로는 전시에 필수적인 탄약 재보급을 위한 수송 소요를 충족시키는 것이 힘들 거라는 분석이다. 대부분의 수송자산이 동원에 의지하고 있는 현실을 감안하면, 개전 초기의 부족한 수송능력은 전시작전지속지원에 큰 타격을 줄 것으로 보이며, 이러한 수송능력의 부족은 전투력 감소와 직결될 것이다. 이러한 환경에서 자율주행 기술의 도입은 전시 24시간 동안 밤낮의 구분 없이, 운전병의 동원을 최소화하여 차량 운행을 가능케 함으로써 수송능력 확대에 기여할 것이다. 또한 동원되지 않은 운전병의 전투병 전환은 군의 전투력 향상이라는 부가적인 효과도 가져올 것이라 기대할 수 있다.
[그림 1] 탄약수송 훈련 *출처 : 대한민국 육군
자율주행용 센서의 중요성
그렇다면 자율주행을 구현하기 위해 가장 중요한 요소는 무엇일까? 바로 외부 환경에 대한 명확한 ‘인식’이다. 우리가 걸을 때, 자기 몸의 위치를, 가야할 경로를, 경로상의 장애물 여부에 대한 정보를 오감을 통해 인식하고, 그에 맞는 판단을 내려 목적지로 향해 이동한다. 마찬가지로, 우리가 직접 운전을 할 때도, 인체의 감각기관을 통해서 주변 상황을 명확하게 인식한 후, 적절한 주행 판단을 내린다.
시각을 통해서 차선, 표지판, 신호, 보행자 등 주변을 살피 고, 청각을 통해서 차량의 엔진음, 클락션 소리 등을 듣고, 촉각을 통해서 노면 상태, 엔진 진동을 인식한다. 우리 인간이 오감을 통해 여러 주행에 필요한 정보를 인식하듯이, 자율주행 차량 역시 여러 종류의 다양한 센서를 통해 주변 환경과 차량 자신의 상태를 인식하여야 한다.
자율주행 차량에서 센서가 중요한 이유는 센서가 차량의 감각기관에 해당하기 때문이다. 감각기관을 통해 인식한 정보가 없다면, 올바른 주행 판단을 내릴 수 없고, 이는 안전사고와 직결되는 중요한 문제이다. 카메라, LiDAR, RADAR, 초음파 센서, GPS와 같은 장비들은 차량의 위치 정보, 차선, 도로표지판, 신호등, 보행자 및 그 외 장애물과 같은 차량 주변 환경에 대한 데이터를 차량에 제공한다.
이러한 정보들은 차량에 탑재된 중앙처리장치에 전달되고, 자율주행 인공지능이 최적의 주행 경로와 속도를 결정하여 안전하고 효율적인 도로주행을 가능하게 한다. 센서가 없는 차량은 감각을 잃은 사람과 같다고 볼 수 있다. 눈을 감고 운전을 할 수 없듯이, 센서가 없이는 자율주행이 불가능할 수밖에 없다.
[그림 2] 자율주행 차량용 센서와 사람의 비교 *출처 : D. Singh (2018), NOVELIC
[그림 2]는 인간과 자율주행 차량을 비교하여 보여주고 있으며 인간이 주행하는데 필요한 요소들이 자율주행 차량에서는 무엇으로 대체되는지 보여준다. 그리고 사람의 외부인식 능력과 그 외 다양한 비전 센서들의 외부인식 능력을 그림을 통해 비교하고 있다. 각각의 비전 센서들의 장점을 잘 융합할 수 있다면 실제 사람이 운전할 때보다 충분히 더 나은 외부 인식 능력을 보여줄 수 있다는 것을 [그림 2]를 통해서 확인할 수 있다. 이렇게 센서 체계가 인간의 능력을 잘 대체하면 할수록 완전 자율주행을 사용할 미래가 가까워질 것이다.
자율주행용 센서의 종류와 특징
자율주행을 하기 위해 필요한 센서는 크게 두 가지 종류로 구분한다. 하나는 외부 환경에 대한 정보를 얻는 센서로 ‘외부수용 센서(Exteroceptive Sensor)’라고 부르며, 다른 하나는 차량이 자신의 위치를 파악하도록 하는 ‘자기수용 센서(Propriceptive Sensor)’이다. 외부수용 센서는 쉽게 생각해서 차량의 시각을 담당하는 센서로 스테레오 카메라, 라이다(LiDAR : Light Detection & Ranging), 레이다(RADAR : Radio Detection & Ranging), 초음파 센서 등이 있다. 자기수용 센서로는 GPS(Global Positioning Sensor), IMU(Inertial Measurement Unit), 인코더 (Encoder)가 대표적이다.
외부수용 센서(Exteroceptive Sensor)
[그림 3] 외부수용 센서 *출처 : D.J. Yeong (2021)
가장 대표적인 외부수용 센서인 라이다는 적외선 영역의 레이저(800nm~1,600nm)를 주변으로 방출하여 반사된 광자가 돌아오는 시간, TOF(Time of Flight)를 측정하여 물체와의 거리를 계산하는 센서이다. 오늘날의 라이다는 초당 20만 회 이상의 펄스를 방출하는 펄스 레이저를 사용하여 물체와의 거리를 측정한다. 이러한 방식으로 라이다는 주변 250m 이내의 3차원 환경 정보를 얻을 수 있다.
라이다는 오차가 수 센티미터밖에 되지 않는 높은 정확도와 해상도를 가지고 있어 자율주행 차량의 주변 환경 인식을 위한 핵심적인 외부수용 센서로 사용되고 있다. 라이다가 이렇게 높은 정밀성을 가질 수 있게 하는 것이 바로 포인트 클라우드(Point Cloud)라고 불리는 3차원 좌표계 상에 물체의 위치를 표시하는 점들의 집합 덕분이다. 포인트 클라우드 데이터는 SLAM(Simultaneous Localization & Mapping)이라고 불리는 정확한 위치 매핑 기술을 통해 구현한다. 라이다는 작동방식에 따라 크게 두 가지 종류로 분류하는데, 하나는 회전하며 360° 주변을 볼 수 있는 스피닝 라이다이며, 다른 하나는 움직이는 부품 없이 고정된 상태로 일정 시야 범위 내의 물체를 관측하는 솔리드 스테이트(Solid-State) 라이다가 있다.
레이다는 전파(e.g. 주파수 : 24GHz, 77GHz, 79GHz) 영역의 밀리미터파를 사용하여 차량과 물체 사이의 거리, 위상각, 상대속도를 측정하는 기술이다. 라이다와 마찬가지로 전파를 발사하고, 반사되어 돌아오는 광자를 감지하여 물체의 위치 정보를 얻는다. 일반적으로 차량용 레이다는 FMCW(Frequency-Modulate Continous Wave) 레이다를 사용하는데, 연속된 형태의 전파를 사용하기 때문에 반사되어 돌아오는 전파의 파장 변화(도플러)를 측정하여 움직이는 물체의 속도까지 측정할 수 있다. 일반적으로 전파의 주파수가 높을수록 좋은 해상도를 가지며, 동시에 여러 물체에 대한 정보를 얻을 수 있다. 라이다와 마찬가지로 대략 300m 범위의 주변 물체를 탐지할 수 있고, 투과율이 높은 전파를 사용하기 때문에 악천후와 같은 기상 상황에 영향을 거의 받지 않는다는 장점이 있다. 또한 라이다에 비해 상대적으로 저렴한 것도 장점으로 꼽히며, 최근 개발되기 시작한 4D 이미징 레이다로 인해 사용 가능성이 더 다양해졌다.
카메라는 필수적인 광학 센서 중 하나로, 측정 영역 내의 디지털 이미지를 얻는다. 움직이는 물체와 정지한 물체 모두 측정하며 색상 정보와 표면 텍스처 정보를 얻을 수 있다는 장점이 있다. 교통 신호나 표지판, 차선 등을 인식하는데 가장 중요한 역할을 하며, 저렴한 가격 역시 매우 큰 이점으로 작용한다. 특히 스테레오 카메라는 사람이 두 눈으로 세상을 보듯이 두 개 이상의 카메라를 같이 사용하여 인간의 양안 시력을 모사했다. 양안 시차를 사용하여 깊이 정보와 같은 입체적인 정보를 얻을 수 있다.
마지막으로 초음파 센서는 앞서 언급한 광학 센서와는 다르게 초음파를 사용한다. 초음파를 사용하기 때문에 기상 상황에 영향을 받지 않고, 근접한 거리에서의 정확도가 매우 높다는 장점이 있다. 게다가 매우 저렴한 단가와 작은 크기 덕분에 적용이 매우 용이하다. 다만, 온도나 습도로 인한 약간의 오차가 있을 수 있고, 원거리를 측정하는데 제한이 있다는 한계점이 있다.
자기수용 센서(Propriceptive Sensor)
[그림 4] 자기수용 센서 *출처 : T.M. Ochir (2019)
자기수용 센서 중 가장 대표적인 것이 바로 GPS이다.
GPS는 시간 정보와 지리적 위치 정보를 제공하는 위성 기반의 전파 내비게이션 시스템이다. 4개 이상의 위성과 중간에 장애물 없이 연결만 된다면, 지구 위 어디에서건 그 위치를 계산할 수 있다. 이러한 계산방법을 삼변측량(Trilateration)이라고 한다. GPS는 우리가 흔히 사용하는 내비게이션에서부터 자율주행 기술에 이르기까지 차량의 위치 정보를 제공해 주는 가장 기본적이고 대중적인 센서이다. 현재 가장 기본적인 GPS 센서의 위치 오차도 1m 이내이며, 고성능의 GPS 센서는 수십 밀리미터의 오차를 가진다. 단점이 있다면, 건물이나 터널과 같이 장애물로 인해 위성과 직선으로 연결되지 않을 때 위치 정확도가 떨어진다는 점이다.
IMU는 가속도계(accelerometer)와 자이로스코프, 그리고 자기계(magnetometer)로 구성된 센서이다. 가속도계는 차량의 가속도를 측정하여 이동 거리와 속도를, 자이로스코프는 차량의 각도 변화를 통해 이동 방향을, 마지막으로 자기계는 차량 주변의 자기장을 측정하여 지구 자기장의 방향을 추정하고 이를 통해 차량의 위치 및 방향을 계산하는 역할을 한다. IMU는 위치 감지가 매우 빠르고 정확하며, 기계적 손상이나 외부 환경에 둔감하다는 장점이 있지만, 3개의 센서가 같이 사용되는 장치이기 때문에 각 센서의 오차가 누적되어 점점 커지는 드리프트 현상이 발생할 수 있다는 단점이 있다.
인코더는 차량의 바퀴 회전을 감지하여 회전 각도나 속도를 측정하고, 일반적으로 바퀴 허브에 부착되어 기능한다. 차량의 속도 및 이동 방향, 이동 거리를 추정할 수 있다. 인코더는 두 가지 종류가 있는데, 하나는 인코더 디스크 자체에 적혀있는 위치 코드를 통해 전원 상태와 무관하게 절대적인 위치를 측정하는 앱솔루트(absolute) 인코더와 디스크에 일정 간격으로 배열된 슬롯의 수를 세는 것을 통해 상대적인 회전 각도를 측정하는 인크리멘탈 인코더가 있다. 인코더 역시 온도나 진동으로 인한 오차와 인코더 디스크에서 발생하는 기계적 오차가 존재한다.
센서 융합의 원리 및 방법
자율주행 기술이 현재 수준인 SAE 2~3단계에서 완전자율주행인 SAE 4~5단계로 나아가기 위해서는 외부 환경에 대한 정보와 차량의 현 상태를 이전보다 더 명확하고 정확하게 인지할 수 있어야 한다. 이를 위해서 각각의 센서가 가지는 취약점을 다른 센서의 장점으로 보완하여 빈틈없는 능력을 갖춰야 한다. 이렇게 서로의 단점을 보완할 수 있도록 도와주는 것이 ‘센서 융합’이다. 예를 들어, 라이다나 카메라의 경우 악천후에 제한을 받기 때문에, 이러한 제약이 없는 레이다와의 융합으로 이를 보완할 수 있다.
[그림 5] SAE Level *출처 : D.J. Yeong (2021)
반대로 레이다의 경우 낮은 해상도와 물체의 위치만을 알 수 있기에, 인식한 물체의 종류를 구분하는 것은 매우 어렵다고 할 수 있다. 그래서 해상도가 높은 라이다나 카메라의 도움이 필요하다. 각각의 센서들이 서로를 보완하는 방법에 대해서 알아보도록 하겠다.
센서 융합에 있어서 가장 먼저 진행해야 하는 것은 바로 센서들의 측정값을 동기화하는 것이다. 이를 센서 보정(Sensor Calibration)이라고 하는데, 예시를 들자면 다음과 같다. 라이다와 카메라는 외부를 인식하는 원리와 방법이 서로 다르다. 그래서 두 센서가 측정한 데이터는 서로 다른 형식으로 표현되게 된다. 라이다의 경우 일반적으로 3차원 포인트 클라우드 형태의 정보를 가지고 있고, 카메라의 경우 우리가 일반적으로 볼 수 있는 픽셀 형태의 이미지 정보를 가지고 있다. 이 두 정보 모두 같은 물체를 인식하지만 인식하는 방법과 표현하는 방법이 다른 것이다.
또한 각각의 센서가 차량에 부착된 위치에 따라 물체를 보는 각도가 달라지기 때문에, 이러한 부분에서 오는 오차 역시도 고려되어야 한다. 마지막으로 센서에 따라 초당 측정 횟수가 다르기도 하고, 센서 배선에 따라 중앙처리장치까지 전달되는데 지연되는 시간이 다르므로 시간에 대한 보정 역시 필요하다.
[그림 6] 센서 융합 모식도 *출처 : CARIAD
센서 보정에 사용되는 대표적인 방법이 바로 MSDF(Multi-Sensor Data Fusion)이다. MSDF는 앞서 언급한 센서 위치에 따른 오차의 얼라인먼트, 센서 측정값의 통합, 그리고 최종적으로 객체 감지까지 총 세 가지 작업을 수행한다. 위 작업은 내부요인 보정(Intrinsic Calibration), 외부요인 보정(Extrinsic Calibration), 시간 보정(Temporal Calibration) 순서로 진행된다. 내부요인 보정은 센서에 따라 달라지는 변수들을 보정하는 작업이다. 예를 들면, 카메라의 초점 거리, 렌즈에서 발생하는 수차(Aberrations)와 같이 센서의 하드웨어에서부터 오는 고유의 오차를 확인하고 통합할 수 있게 보정하는 것이다.
이후에 진행되는 외부요인 보정은 서로 다른 좌표계로 표현된 데이터를 강체 변환(Rigid Transformation)하는 작업으로, 대표적인 예시가 바로 3D 라이다에서 얻은 3차원 포인트 클라우드 데이터를 우리가 일반적으로 아는 3차원 직교 좌표계 형태로 변환하는 작업이다. 이후 보정된 정보를 바탕으로 객체의 위치를 추정하는 것으로 MSDF 작업은 마무리되며, 모든 센서의 형식을 통일하고 이를 바탕으로 객체 위치에 대한 정보를 얻을 수 있다.
[표 1] 외부수용 센서의 비교 및 융합
MSDF 작업을 통해 처리된 정보들은 각 센서의 단점을 보완하기 위해서 융합된다. [표 1]에서 확인할 수 있듯이 여러 센서의 능력을 합쳐 보완하면, 주행에 필요한 여러 영역에서의 최소 요구 성능을 만족할 수 있다. 대표적인 센서 융합의 예시로 Camera-RADAR(CR), CameraLiDAR(CL), Camera-LiDAR-RADAR(CLR)이 있으며, 현재 가장 많이 사용되는 융합의 종류가 바로 CR이다. 카메라와 레이다가 가격이 저렴하기도 하고, 융합의 난이도도 낮기 때문이다. 게다가 [표 1]에서 확인할 수 있듯이, 두 센서를 합치면 대부분의 요구 사항이 만족되기 때문에, 현재 자율주행 자동차 시장을 선도하고 있는 테슬라의 자율주행 차량이 레이다와 카메라를 융합한 형태로 제작되고 있다.
[그림 7] MSDF를 통한 센서 데이터 보정 *출처 : D.J. Yeong(2021)
[그림 8] 외부수용 센서의 융합(위 : CR, 아래 : CL) *출처 : M. Dimitrievski(2020), G.A. Kumar(2020)
[그림 8]에서는 CR 융합(위)과 CL 융합(아래)의 예시를 확인할 수 있다. CR 융합에서 파란색으로 표시한 것이 카메라를 통해서 인식한 보행자의 위치이고, 초록색으로 표시한 부분이 레이다 측정 정보를 강체 변환하여 카메라 이미지 상에 매핑한 결과를 보여준다. 이러한 융합은 차량의 라이트에만 의지해야 하는 야간이나 시야 확보가 제한되는 악천후 상황에서 카메라를 보완하여 객체를 인지하는데 많은 도움이 된다. CL 융합에서는 라이다의 정밀한 거리측정 기술을 통해서 카메라를 통해 인식한 물체와 차량 사이의 정확한 거리를 알 수 있다. 카메라의 경우 물체 인식에는 뛰어나지만, 3차원 정보를 2차원으로 표현하기 때문에 물체와의 거리를 정확하게 알기 힘들다. 이를 라이다를 통해 얻은 밀리미터 수준으로 정밀한 3차원 포인트 클라우드 데이터와 융합하게 된다면, 주변 물체의 존재와 정확한 위치 정보를 알 수 있게 된다.
[그림 9] CLR 융합의 개요 *출처 : M. Bijelic(2022)
여기서 SAE 4단계 이상의 완전자율주행으로 나아가기 위해서는 어떤 상황에서도 정밀하게 작동할 수 있는 능력이 요구된다. 그래서 CLR 융합이 많이 연구되고 있고, [그림 9]에서 확인할 수 있다. 세 종류의 센서의 융합은 안개나 야간 등의 시야 제한 상황에서 더 정확한 객체 인식을 가능하게 하는 것을 볼 수 있다. [그림 10]을 통해, 카메라 이미지만을 통해서는 바로 근처에 있는 두 개의 차량만을, 라이다만 사용한 이미지에서는 아예 차량을 인식하지 못하는 것을 볼 수 있다. 여기서 센서 융합의 장점을 확인할 수 있다. 레이다를 통해서 물체의 위치를 파악하게 되면, 이 정보를 바탕으로 카메라 이미지와 라이다 포인트 클라우드 데이터에서 해당 위치에 대응하는 정보를 분석하여 실제 차량인지 아닌지를 판단할 수 있게 된다. 이를 통해서 각각의 센서 단독으로는 볼 수 없었던 정보들을 얻을 수 있게 되며, 더 다양한 환경에서 신뢰할 수 있는 외부 환경 인식이 가능해진다.
[그림 10] CLR 융합 적용
그렇다면 자기수용 센서의 융합에는 어떤 방법이 사용될까? 자기수용 센서의 경우, 각 센서의 위치 추정에서 발생 하는 오차가 누적되어 커지는 것이 주요한 문제이다. 이러한 오차의 보정에 주로 사용하는 수학적 방법이 바로 칼만 필터(Kalman Filter)이다. 칼만 필터는 물체의 측정값에 확률적인 오차가 포함되고, 선형적인 역학계에 주로 사용하는 방법이다. 따라서 연속적으로 계속 변하는 값을 추정하는 데에 유용하다. 예를 들면, 드론의 위치 추정이나, 자율주행 자동차에서의 차량 위치 등 실시간으로 동작하는 시스템의 상태를 제어하고 예측하는 데 효과적으로 사용되고 있다. 칼만 필터를 적용하는 과정은 두 개의 단계로 구성된다. 첫 번째 단계는 예측(predict)이다. 이 단계에서는 이전 상태의 추정값과 추정 오차를 사용하여 현 상태의 추정값과 추정 오차를 계산한다. 두 번째 단계는 수정(update) 단계로 실제 측정값과 예측값을 이용하여 추정값을 계산하는데 사용되는 가중치인 칼만 이득(Kalman Gain)을 계산하고, 이를 토대로 현 상태의 추정값과 추정 오차를 수정한다. 이런 방식으로 GPS나 IMU, 인코더의 센서 융합 시 중첩되어 발생하는 오차를 감소시킬 수 있다.
[그림 11] 칼만 필터 *출처 : gitHub(JINSOL KIM
해외 센서 융합 기술의 군사적 활용 사례
해외에서는 이미 센서 융합 기술을 활용한 자율주행 차량을 시험운용하고 있다. 미군의 TARDEC(Tank Automotive Research, Development, and Engineering Center)와 ARDEC(Armament Research, Development, and Engineering Center), 그리고 영국의 Dstl(Defence Science and Technology Laboratory)이 협력하여 완성한 CAN(Controller Area Network) 보드가 기초적인 형태의 센서 융합을 구현한 장치다. 이 CAN 보드를 통해 운용되는 군용 자율주행 차량이 바로 CAN 버스이며, [그림 12]에서 확인할 수 있다.
[그림 12] 미군의 CAN 버스와 센서 퓨전 보드 *출처 : SAE Media
CAN 보드는 차량 내부의 여러 센서 사이의 통신을 간단하게 하는 메시지 기반 프로토콜을 구현한 보드이다. 중앙 컴퓨터 없이도 CAN 보드를 통해서 각각의 센서나 장비들이 직렬로 정보를 주고받으며 주행에 필요한 정보를 신속 하게 주고받을 수 있게 된다. 그래서 CAN 보드는 차량 이외에도 농업, 로봇 공학, 자동화 산업 및 의료 시스템과 같은 광범위한 분야에도 응용된다. 더 큰 장점은 계속해서 발전하는 차량 기술 속에서도 유연성과 신뢰성이 좋아 장기적으로 사용될 수 있다는 점이다. 또한 중앙 컴퓨터가 없어도 된다는 장점은 센서 간 정보 교환에 필요한 시간을 감소시킬 수 있고, 이는 특히 더 즉각적인 반응이 필요한 전시 군용차량에 적합한 특징이라고 할 수 있다.
이러한 CAN 보드를 장착한 CAN 버스는 4가지의 센서에서부터 오는 정보를 통신하여 주변 환경과 차량 위치를 파악한다. 전방 3차원 도로지도를 위한 라이다와 장애물 위치나 도로표지판 등의 정보를 수집하는 스테레오 카메라, 야간 장애물 탐지를 위한 적외선 카메라, 그리고 GPS 센서로부터 오는 측정 데이터가 CAN 보드를 통해 종합되고, 주변 상황에 알맞은 주행 판단이 내려진다. 특히 군용으로 사용되기 위해서 MILCAN 모델은 대폭 확장된 데이터 전송 속도를 가지고 다양한 군사적 목적으로 활용되고 있다.
맺는 말
국방력 발전을 위해서 자율주행은 선택이 아닌 필수 기술이다. 군 차량의 무인화를 위해서는 기술 발전에 빠르게 적응하여 사용하는 것이 필요하다고 할 수 있다. 센서 융합기술 역시 빠른 적용이 필요한 기술이며, 이를 위해서는 군의 특성에 맞는 요구 사항을 충족하는 센서를 개발해야 한다고 생각한다. 센서 간 호환을 효율적으로 함과 동시에 환경적, 보안적인 요소도 충족해야 한다. 여기에 실제 주행 환경에서 시험하며 지속적으로 보완해 나가는 과정이 필수적으로 수반되어야 더 발전된 무인 차량 체계를 갖출 수 있을 것이다.
수송은 국방에 있어 혈액과 같다. 혈액 순환이 안 되면 건강에 문제가 생기듯이, 수송이 원활하지 않으면 국방력에 문제가 생기게 된다. 수송 병력이 계속해서 감소하고 있는 현재 상황에서, 적극적인 대처와 노력을 통하여 군 차량의 자율주행을 가능케 한다면, 대한민국의 국방력은 비약적으로 성장할 것이다. 더 나아가 전시 급증하는 수송 소요도 충족하며 언제든 준비된, ‘Fight Tonight’ 정신으로 무장한 육군에 한 발 더 다가서게 될 것이다.
|