• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Dept. of Intelligent Mechatronics Engineering, and Convergence Engineering for Intelligent Drone, Sejong University, Korea.)



ArUco Marker, Extended Kalman Filter, Indoor Navigation System, Mobile Robot, State Estimation

1. 서 론

최근 생산, 서비스 분야에서 효율적인 업무를 위한 무인이동체의 활용이 확대되고 있다[1]. 실내 항법은 실내 환경에서 무인이동체의 원활한 임무 수행을 위한 위치 파악에 중요한 주제로, GNSS(global navigation satellite system) 신호가 접근하기 어려운 실내 공간에서 정확한 위치 추정과 경로 탐색을 위해 연구되고 있다. 실내 항법은 센서를 기반으로 한 방법과 실내에 설치된 비콘(vicon), 와이파이, 자기장, UWB 등의 신호를 활용한 위치 추정 기술 등이 대표적으로 개발되고 있다[2]-[5]. 신호를 기반으로 한 위치 추정 방식은 GNSS 신호를 기반으로 한 시스템과 유사하게 정확한 위치 추정 결과를 도출하지만, 해당 방식의 사용이 불가능한 상황에서는 다중 센서 융합을 이용한 항법 시스템 구성이 불가피하다. 일반적으로 3축 가속도계와 3축 각속도계를 통해 가속도와 각속도를 측정하는 관성측정장치(inertial measurement unit, IMU), 그리고 위치나 속도와 같은 항법 계산에 유용한 정보를 제공하는 센서를 융합한 항법 알고리즘을 구성한다[6][7].

이 중 카메라와 IMU를 사용한 영상-관성항법시스템(visual inertial navigation system, VINS) 알고리즘은 영상으로부터 명확한 특징점을 검출하고, 각각의 프레임 사이에 같은 특징점의 매칭과 비교를 통해 이동체의 위치를 추정한다[8]. 본 논문에서는 OpenCV에서 제공하는 ArUco 마커를 이미지의 랜드마크로 사용하였다. ArUco 마커는 특별한 패턴으로 구성된 2D 바코드로, 카메라 이미지에서 인식되고 추적될 수 있으며, 고유한 식별자(ID)를 가지고 있어 실시간으로 감지되고, 단안 카메라로도 마커의 깊이 추정이 가능하여 마커의 코너를 기준으로 3축 위치와 방향을 취득할 수 있다[9]-[12].

마커를 사용하여 실내 항법을 수행하는 연구는 주로 사용자가 각각 다른 ID의 마커를 정해진 위치에 부착하고, 항법 좌표계 내부의 위치를 안 상태에서 탐지되는 마커의 ID 비교를 통해 칼만필터(Kalman filter)를 사용하여 로봇의 위치를 보정하는 시스템을 구성한다[13]-[15]. 사전에 알고 있는 마커의 위치와 카메라, 로봇 간의 벡터 계산을 통해 마커로부터 계산된 로봇의 위치를 칼만필터의 측정치로 대입하며, 재귀적인 방식으로 추정한다.

본 논문에서 제안하는 알고리즘은 각 랜드마크의 위치를 모르는 상태에서도 초기 상태에서 추정되는 랜드마크의 위치를 저장하고, 이동 과정에서 추가적으로 탐지되는 랜드마크의 위치를 추정한다. 추정된 랜드마크의 위치를 통해 로봇의 위치를 계산하고, 취득할 수 있는 속도 정보 또한 활용하여, 확장칼만필터(extended Kalman filter, EKF)의 측정치로 사용하였고 로봇의 위치를 재추정하는 알고리즘 설계하였다. 근거리에 있는 랜드마크의 위치 추정 정확도가 장거리에서 탐지되는 랜드마크에 비해 더 높다고 판단하여 로봇이 정해진 경로를 이동하면서 탐지하는 랜드마크의 위치를 지속적으로 추정하였고, 랜드마크를 지속적으로 탐지할 수 있도록 환경을 조성하여 로봇의 위치를 계속해서 추정한다. 제안하는 알고리즘으로 사람이 탐색하기 어려운 곳을 저가형 센서를 부착한 로봇을 통해 이동 경로 지도를 제작하거나, 수색 환경이 주기적으로 변하여 로봇의 이동 경로를 계속해서 변경해야하는 경우 경로의 무작위 위치에 마커를 부착하는 것만으로 위치를 추정할 수 있다. 전반적인 알고리즘의 흐름은 그림 1로 나타내었다.

본 논문의 구성은 다음과 같다. 먼저 2장에서 알 수 없는 위치에 부착된 항법 좌표계 내 마커의 위치를 추정하는 방식에 대해 설명하고, 3장에서는 2장에서 추정한 마커의 위치를 기반으로 확장칼만필터를 사용한 영상-관성 복합 항법 위치 추정 기법에 대해 설명한다. 4장에서 실제 실험을 통해 취득한 데이터를 토대로 제안하는 알고리즘의 타당성을 검증하였으며, 마지막으로 5장에서 결론을 맺는다.

그림 1. 제안한 알고리즘 순서도

Fig. 1. The proposed algorithm flowchart

../../Resources/kiee/KIEE.2024.73.4.711/fig1.png

2. 마커의 위치 추정

2D의 이미지에서 3D 공간좌표로 복원하는 과정에서 보다 정확한 계산 결과를 얻기 위해 초점 거리, 주점 등과 같은 내부 요인을 보상하는데, 이 과정을 카메라의 캘리브레이션(Calibration)이라고 한다. 일반적으로 캘리브레이션을 통해 취득한 내부 파라미터를 이용하여 동일한 특징점을 서로 다른 위치에서 촬영한 2개의 이미지의 기하학적 대조 과정을 거쳐 깊이를 추정한다. 하지만, ArUco 마커는 인식한 코너를 통해 실제 마커 크기와 비교하기 때문에 하나의 이미지만으로도 깊이 추정이 가능하다. 따라서 탐지된 마커의 각 코너 좌표와, 배치한 마커의 크기, 그리고 내부 파라미터를 입력받아 마커의 좌표계에서 계산된 카메라의 3D 상의 이동 벡터(translation vector)와 회전 벡터(rotation vector)를 얻을 수 있다. 이동 벡터와 회전 벡터는 각각 원래 위치에서 새로운 위치로의 변위와 회전의 방향을 의미한다. 그림 2는 각 좌표계 사이의 위치 벡터를 도시하였다. 이때 $\{m\}$, $\{n\}$, $\{b\}$, $\{c\}$는 각각 마커, 항법, 동체, 카메라 좌표계를 의미하며, 항법 좌표계로는 NED(North-East-Down) 좌표계를 사용한다.

그림 2. 각 좌표계 간 위치 벡터

Fig. 2. Position vectors with respect to each frame

../../Resources/kiee/KIEE.2024.73.4.711/fig2.png

본 논문에서 사용되는 수식의 표기법 중 $\widetilde{A}$는 측정치를 $\hat{A}$은 추정치를 의미하며, 벡터 $p_{A}^{B}$는 B 좌표계에 대한 A의 위치 벡터를 나타낸다. 추정해야하는 값인 마커의 위치 $\hat{p}_{m}^{n}$과 로봇의 위치 $\hat{p}_{b}^{n}$은 빨간색으로 표현하였으며, 하드웨어의 기본 구성을 통해 알고 있는 벡터를 녹색, 센서로부터 취득 가능한 벡터를 파란색으로 표현하였다. 따라서, 추정하고자 하는 항법 좌표계 내 마커의 위치는 식 (1)을 통해 계산할 수 있다.

(1)
$\hat{p}_{m,\: k}^{n}=\hat{p}_{b,\: k}^{n -}+\hat{R}_{b}^{n}p_{c}^{b}-R_{b}^{n}R_{c}^{b}\widetilde{R}_{m}^{c,\: k}\widetilde{p}_{c,\: k}^{m}$

이때, $\hat{p}_{b,\: k}^{n -}$은 관성항법시스템을 거쳐 추정된 $k$단계의 위치 추정 결과이며, $\widetilde{p}_{c,\: k}^{m}$는 카메라를 통해 측정된 $k$단계의 마커 좌표계에 대한 카메라의 위치 측정치를 나타낸다. $R_{b}^{n}$은 동체 좌표계와 항법 좌표계 간의 변환 행렬이고, $R_{c}^{b}$와 $p_{c}^{b}$는 각각 카메라 캘리브레이션을 통해 얻는 카메라와 동체 좌표계 간의 변환 행렬과 동체 좌표계에 대한 카메라의 위치 벡터이며, 각각 상수 행렬 및 상수 벡터이다. $\widetilde{R}_{c,\: k}^{m}$은 마커로부터 측정되는 회전 벡터를 기반으로 한 변환 행렬이며, 위 식에서 사용된 $\widetilde{R}_{m}^{c,\: k}$는 이의 전치 행렬로 마커 좌표계에서 카메라 좌표계로의 변환 행렬이다.

한 프레임 내에 여러 개의 마커를 인식한 경우 매 시간마다 각각의 추정된 위치를 대입 및 비교하였으며, 반복적으로 위치를 추정하여 이상치가 계산되는 경우 이를 제거하여 정확한 추정치를 계산하도록 구성하였다.

3. 마커를 활용한 확장칼만필터 기반 항법 알고리즘

본 논문에서는 제안하는 알고리즘은 관성항법시스템(inertial navigation system, INS)에 의해 계산된 위치와 앞서 추정된 마커의 위치로부터 계산된 위치 측정치 사이의 오차를 추정하는 확장칼만필터를 사용한다. 추정된 오차를 통해 가속도계와 각속도계 바이어스를 지속적으로 업데이트하고, 정확한 추정을 할 수 있도록 보정한다[16], [17].

3.1 확장칼만필터 기반 영상-관성 복합 항법 알고리즘

관성항법시스템의 위치 오차($\delta p_{b}^{n}$), 속도 오차($\delta v_{b}^{n}$), 자세 오차($\delta\psi_{b}^{n}$), 가속도계 바이어스($b_{a}$), 각속도계 바이어스($b_{g}$)를 상태 변수로 정의하여 이를 추정하고 INS를 통해 추정된 항법 정보의 오차 보정 과정을 거쳐 최종적인 항법 정보를 계산한다. 이때, 상태 변수 추정 모델과 측정치 계산은 다음과 같이 계산된다[18], [19].

(2)
$\delta x=\begin{bmatrix}\delta p_{b}^{n^{T}}\delta v_{b}^{n^{T}}\delta\psi_{b}^{n^{T}}b_{a}^{T}b_{g}^{T}\end{bmatrix}^{T}\in ℝ^{15\times 1}$
(3)
$\delta x_{k}=F_{k-1}\delta x_{k-1}+w_{k-1},\: w\sim N(0,\: Q_{k})$
(4)
$z_{k}=H_{k}\delta x_{k}+\nu_{k,\:}\nu_{k}\sim N(0,\: R_{k})$

이때, 시스템 상태 변수 $\delta x$는 $15\times 1$의 벡터 형태로 표현되며, $z_{k}$는 측정치이고, $H_{k}$는 관측 행렬로 상태 변수와 측정치 간의 관계를 의미하며, 필터 공정 잡음 $w_{k}$와 측정치 잡음 $\nu_{k}$은 각각 평균이 0이고, $Q_{k}$, $R_{k}$을 분산으로 하는 가우시안 모델이다. $F_{k}$는 시스템 모델이며, 아래 식 (5)와 (6)과 같이 정의된다.

(5)
$F_{k-1}=\begin{bmatrix}0_{3\times 3}&I_{3\times 3}&0_{3\times 3}&0_{3\times 3}&0_{3\times 3}\\0_{3\times 3}&0_{3\times 3}&F_{23}&\hat{R}_{b}^{n}&0_{3\times 3}\\0_{3\times 3}&0_{3\times 3}&0_{3\times 3}&0_{3\times 3}&-\hat{R}_{b}^{n}\\0_{3\times 3}&0_{3\times 3}&0_{3\times 3}&-b_{a}I_{3\times 3}&0_{3\times 3}\\0_{3\times 3}&0_{3\times 3}&0_{3\times 3}&0_{3\times 3}&-b_{g}I_{3\times 3}\end{bmatrix}$
(6)
$F_{23}=\begin{bmatrix}0&\hat{f}_{z}&-\hat{f}_{y}\\-\hat{f}_{z}&0&\hat{f}_{x}\\\hat{f}_{y}&-\hat{f}_{x}&0\end{bmatrix}$

(6)의 $\begin{bmatrix}\hat{f}_{x}\hat{f}_{y}\hat{f}_{z}\end{bmatrix}^{T}=\hat{R}_{b}^{n}(f-\hat{b}_{a})$으로 정의되며 보상된 동체 좌표계의 비중을 나타낸다. 일반적으로, 칼만필터의 구조는 크게 예측 단계(time update)와 측정치 갱신(measurement update)으로 나뉜다. 예측 단계에서는 식 (7), (8)을 통해 시스템 모델을 갱신하고 시스템 공분산 $P_{k}^{-}$를 예측한다. 칼만필터의 전체 단계에서 상태 변수의 추정이 두 차례 이루어지며, 추정 과정에서 변수의 지수에 위치한 “‒” 기호는 $k$ 시간의 예측 단계에서 추정된 아 프리오리(a priori) 상태 추정 값을 의미한다.

(7)
$\hat{x}_{k}^{-}=F_{k-1}\hat{x}_{k-1}^{+}+w_{k-1},\: w\sim N(0,\: Q_{k})$
(8)
$P_{k}^{-}=F_{k-1}P_{k-1}^{+}F_{k-1}^{T}+Q_{k-1}$

예측 단계에서 추정된 시스템 공분산을 통해 식 (9)과 같이 칼만 이득 $K_{k}$를 계산하고, 식 (10), (11)을 통해 측정치를 갱신하여 상태 변수 $\delta x_{k}^{+}$와 시스템 공분산 $P_{k}^{+}$를 추정하고, 이때 “+” 기호는 측정치 갱신을 거쳐 추정된 아 포스테리어리(a posteriori) 상태 추정 값을 의미한다. 오차 추정 결과를 이용하여 상태 변수를 보정하는 오차 보상 단계는 식 (12)과 같이 계산된다.

(9)
$K_{k}=P_{k}^{-}H_{k}^{T}(H_{k}P_{k}^{-}H_{k}^{T}+ R_{k})^{-1}$
(10)
$\delta\hat{x}_{k}^{+}=K_{k}(z_{k}-H_{k}\hat{x}_{k}^{-})$
(11)
$P_{k}^{+}=(I-K_{k}H_{k})P_{k}^{-}(I-K_{k}H_{k})^{T}+K_{k}R_{k}K_{k}^{T}$
(12)
$\hat{x}_{k}^{+}=\hat{x}_{k}^{-}+\delta\hat{x}_{k}^{+}$

그림 3. 마커 기반 EKF 알고리즘 구조도

Fig. 3. Marker-based EKF algorithm overall structure.

../../Resources/kiee/KIEE.2024.73.4.711/fig3.png

일반적으로, 칼만필터를 통한 항법 알고리즘은 측정치로부터 항법 정보를 보정하기 때문에, 측정치의 정확도가 전반적인 항법 정확도에 큰 영향을 미치는 것을 확인할 수 있다. 실내 항법에서는 사용할 수 있는 센서가 제한됨에 따라 더 많은 측정치를 사용하거나, 고성능의 센서를 사용하여 관성항법시스템의 결과를 보정할 수 있도록 한다. 본 논문에서 사용된 영상-관성항법시스템은 영상에서 인식된 ArUco 마커를 통해 계산된 위치와 속도 정보를 측정치로 사용하며, 보다 정확한 위치를 추정하기 위해 이상치를 제거하는 방법을 제안한다.

마커 기반의 확장칼만필터 알고리즘의 세부 알고리즘 구조는 그림 3의 블록선도로 나타내었다.

3.2 마커를 통한 위치 및 속도 측정치 계산

마커로부터 측정되는 이동 벡터와 회전 벡터를 이용하여 3D상의 위치와 속도를 계산할 수 있다. 초기 위치를 알고 있는 상태에서 식 (1)을 통해 추정된 항법 좌표계에서의 마커의 위치 $\hat{p}_{m,\: k}^{n}$을 이용하여 식 (13)을 통해 위치 측정치 $\widetilde{p}_{b}^{n}$을 계산할 수 있다.

(13)
$\widetilde{p}_{b,\: k}^{n}=\hat{p}_{m,\: k}^{n}+\hat{R}_{b}^{n}R_{c}^{b}\widetilde{R}_{m}^{c,\: k}p_{b}^{m}$
(14)
$p_{b}^{m}=\widetilde{p}_{c,\: k}^{m}+\widetilde{R}_{c,\: k}^{m}p_{b}^{c}$

이때, 마커로부터 동체까지의 위치 벡터 $p_{b}^{m}$은 식 (14)과 같이 카메라로부터 측정된 이동 벡터 $\widetilde{p}_{c,\: k}^{m}$와 카메라와 동체 좌표계의 위치 벡터 $p_{b}^{c}$의 벡터 계산으로 나타낸다.

한 프레임 내에서 여러 개의 마커가 탐지되는 경우 가장 정확한 측정치를 사용하기 위해, 이전 단계의 위치와 각 마커 별로 계산된 위치 측정치의 거리를 대조하여 가중 평균을 통해 최종 위치 측정치를 선정하였다.

위치 측정치만 사용할 경우 측정되는 위치나 관성항법시스템을 통해 추정되는 위치 정보가 이상치를 갖는 경우를 대비하여 빠르게 발산하는 것을 방지하기 위하여 속도 측정치를 함께 사용하여, 보다 나은 정확도의 위치 정보를 추정할 수 있도록 하였다.

(15)
$\widetilde{v}_{b}^{n}=\hat{v}_{c}^{n}-[\omega_{b}^{n}]_{\times}p_{c}^{b}$
(16)
$\hat{v}_{c}^{n}=\hat{v}_{m}^{n}-\hat{v}_{m}^{c}-[\omega_{b}^{n}]_{\times}p_{c}^{b}-[\omega_{c}^{n}]_{\times}\hat{p}_{m}^{c}$
(17)
$\hat{v}_{m}^{n}=0$
(18)
$\widetilde{v}_{b}^{n}=-\hat{v}_{m}^{c}-[\omega_{b}^{n}]_{\times}(2p_{c}^{b}-\hat{p}_{m}^{c})$
(19)
$\hat{v}_{m}^{c}=\widetilde{R}_{m}^{c,\: k}\dfrac{(\hat{p}_{c,\: k}^{m}-\hat{p}_{c,\: k-1}^{m})}{\triangle t}$

(15)은 속도 측정치의 계산식이며, $\hat{v}_{c}^{n}$는 항법 좌표계에서 추정된 카메라의 위치이고, $[\omega_{b}^{n}]_{\times}$는 로봇의 각속도의 반대칭행렬이며 아래 식으로 나타난다. 이때 마커는 정지된 특징점으로 식 (17)에서 볼 수 있듯이 속도의 변화량은 0으로 정의된다.

카메라 좌표계에 대한 마커의 속도 변화량 $\hat{v}_{m}^{c}$은 위치 측정치의 미분으로 계산하였으며, 식 (19)과 같이 도출된다. 해당 과정에서 부정확한 속도 측정치가 계산되는 경우 전체적인 추정 결과에 큰 영향을 미치기 때문에 위치 측정치에서와 마찬가지로, 인식 가능한 모든 마커에 대해 속도 측정치를 구한 후 이전 단계에서 계산된 속도를 속력으로 환산하여 각각의 데이터와 비교하였다. 동일한 마커가 장기간 인식되지 않거나 마커의 위치 추정치의 오차 등의 이유로 각 마커의 이상 측정치가 발생할 수 있다. 이를 제거하기 위해 이전 단계에서 추정된 로봇의 속력과 마커 각각의 측정치로부터 계산된 속력의 정량적인 비교를 통해 큰 차이가 발생하는 경우 측정치로 사용하지 않는 방법을 사용하였다. 따라서, 출력된 위치와 속도 측정치를 확장칼만필터에 대입하여 항법 오차를 추정 및 보상한다.

3.3 마커 기반 영상-관성항법 알고리즘

앞서 구한 위치와 속도 측정치를 사용하여 확장칼만필터를 구성하였다. 이때 측정치 $z_{k}$는 관성항법시스템에서 추정한 상태 변수와 측정치 간의 오차로 식 (20)과 같이, 측정치 모델에 의한 관측 행렬 $H_{k}$는 식 (21)로 정의하였다.

(20)
$z_{k}=\begin{bmatrix}\hat{p}_{k}^{-}-\widetilde{p}_{b}^{n}\hat{v}_{k}^{-}-\widetilde{v}_{b}^{n}\end{bmatrix}$
(21)
$H_{k}=\begin{bmatrix}I_{3\times 3}0_{3\times 3}0_{3\times 3}0_{3\times 3}0_{3\times 3}\\0_{3\times 3}I_{3\times 3}0_{3\times 3}0_{3\times 3}0_{3\times 3}\end{bmatrix}$

여기서 $\hat{p}_{k}^{-}$와 $\hat{v}_{k}^{-}$는 관성항법시스템으로부터 추정된 위치와 속도이며, 앞서 추정된 바이어스에 비해 측정치의 잔차(residual)가 상당히 클 경우 이를 이상치로 판단하고, 적응형 규칙을 적용하여 측정치 공분산 $R_{k}$를 조정하였다.

카메라와 관성측정장치를 통해 취득된 데이터를 기반으로 실내 항법 정확도 향상을 위한 간접 확장칼만필터의 알고리즘 구성은 아래의 Algorithm 1과 같이 요약된다.

../../Resources/kiee/KIEE.2024.73.4.711/al1.png

4. 실내 항법 검증 실험 및 결과 분석

위성 항법 및 신호 기반 항법이 불가능한 환경에서 제안한 알고리즘의 성능을 검증하기 위해 마커의 위치를 모르는 상태로 경로를 설정한 후 실험을 진행하였다. 실험 간 사용된 로봇은 WeGo 사에서 제작한 Scout Mini에 항법 센서를 부착할 수 있도록 개조하여 사용하였으며, 본 실험은 로봇의 초기 정지 상태에서 하나 이상의 마커가 인식될 수 있도록 설치하였고, 매 순간 마커가 탐지될 수 있도록 곳곳에 위치하여야 한다는 가설을 설정하였다. 또한, 제안한 항법 알고리즘은 3D 상에서 작동할 수 있도록 설계하였으나, 실험은 항법 좌표계의 Z축을 제외하고 2D 결과를 도출하였다. 그림 4와 같이 ‘ㄷ’자 형태의 경로로 직진 및 제자리 회전 주행하였고, 초기 정지 상태에서 마커 ①을 포함한 인식 가능한 모든 마커의 위치를 추정하고, 추후 주행 과정에서 지속적으로 업데이트하였다. 제안된 알고리즘이 저가형 센서를 사용하였을 때에도 원활하게 위치 추정이 가능한지 확인하기 위해 IMU는 ROBOR 社의 RB-SDA-v1을 사용하였고, 카메라는 intel 社의 D435i의 RGB 카메라를 사용하였다. 표 1은 실험에 사용된 센서의 사양을 도시하였다.

이미지에서 마커를 인식한 경우 녹색 상자를 그리며 카메라와의 이동 벡터 $\widetilde{p}_{c}^{m}$을 계산할 수 있으며, 동체 좌표계와 항법 좌표계는 동일한 방향으로 설정하였다. 또한, 카메라와 마커의 좌표계는 항법 좌표계 위에서 각각 다르게 위치하고 있으며, 상세한 3축 방향에 대해 그림 5에 나타내었다.

표 1 실험 간 사용된 센서의 사양

Table 1 Specifications of the sensors used during the experiments

IMU (RB-SDA-v1)

Accelerometer

Gyroscope

Bias

±50 [mg]

±5 [deg/s]

Noise Density

230 [μg/√Hz]

0.015 [deg/s√Hz]

Data Rates

100 [Hz]

RGB Camera (D435i)

Resolution

1280 × 720 [pixel]

Camera FOV

H : 69±1 / V : 42±1 / D : 77±1 [deg]

Frame Rates

30 [fps]

그림 4. 알고리즘 검증 실험 환경 및 주행 경로

Fig. 4. Experimental environment and path

../../Resources/kiee/KIEE.2024.73.4.711/fig4.png

그림 5. 실내 항법 실험 환경 설치

Fig. 5. The indoor experimental environment setup

../../Resources/kiee/KIEE.2024.73.4.711/fig5.png

4.1 마커 측정치 기반 로봇 위치 추정

실험을 통해 취득한 데이터를 토대로 제안한 알고리즘의 신뢰성을 판단하였다. 그림 6은 실내 항법 알고리즘을 적용한 위치 추정 결과를 도시하였다. 그림 내에 그려진 점은 각각의 마커로부터 추정된 로봇의 위치 즉 위치 측정치를 나타낸 것이며, 빨간색으로 그려진 선은 참값으로 실제 로봇의 이동 경로를 나타낸다. 또한, 마커의 속도 측정치만을 사용하여 로봇의 위치를 추정한 결과는 녹색 점선으로 나타내었고, 위치와 속도 측정치를 모두 사용한 결과를 파란색 점선으로 표시하였다. 추가로 도시되어 있는 점으로 표시된 데이터는 각각 마커로부터 계산된 위치 측정치를 의미한다. 인식된 마커 별로 다른 색과 모양으로 표현하여 구분하였다. 표 2는 속도 측정치만 사용한 결과와 위치 및 속도 측정치를 모두 사용하여 로봇의 위치를 추정한 결과에 대한 RMSE(root mean square error)를 나타내었다.

표 2 측정치에 따른 위치 및 방향각 추정 결과에 대한 RMSE

Table 2 Specifications of the sensors used during the experiments

구 분

X

Y

Heading

Only velocity

Measurement

2.8757

0.2855

0.2557

Position & Velocity Measurement

0.3285

0.1021

0.0145

그림 6. 위치 추정치 비교 분석: 카메라에서 도출된 속도 측정치만 사용한 경우와 위치 및 속도 측정치를 모두 사용한 결과 분석

Fig. 6. Comparative analysis of position estimation: Evaluating results with only velocity measurement versus combined position and velocity measurement from the Camera.

../../Resources/kiee/KIEE.2024.73.4.711/fig6.png

위치를 추정한 결과 구상 단계에서 예상했던 것과 같이 정확도가 개선된 것을 확인할 수 있다. 본 논문에서는 마커의 항법 좌표계 위 위치를 추정하며, 마커의 정확한 위치인 $p_{m}^{n}$을 알 수 없어 로봇 위치 추정치 $\hat{p}_{b}^{n}$과 카메라를 통해 측정되는 $\widetilde{p}_{c}^{m}$ 간의 상관관계를 계산할 수 없기 때문에 칼만필터에서 필요한 위치 측정치에 대한 모델을 구할 수 없다. 하지만, 속도 측정치의 경우 $p_{m}^{n}$와 관계없이 $\widetilde{p}_{c}^{m}$로부터 측정 가능하기에 위치 측정치를 통한 결과가 아닌 속도 측정치만 사용한 결과를 통해 검증하였다. 속도 측정치를 사용한 경우 위치 추정의 관측가능성이 없기 때문에 로봇의 위치 추정치가 발산하여 참값과 크게 벗어난 부분을 확인하였고, 위치 측정치를 함께 사용할 때 이 점이 크게 개선된 것을 볼 수 있었다.

5. 결 론

본 논문에서는 비콘이나 와이파이 등 신호 기반 실내 항법이 불가능한 상황에서 알 수 없는 위치에 배치된 마커의 위치를 단안 카메라를 통해 추정하고, 추정된 마커의 위치를 기반으로 운행 중인 모바일 로봇의 위치를 재추정하는 알고리즘을 제안한다. 확장칼만필터를 기반으로 항법 알고리즘을 구성하였으며, 마커로부터 위치와 속도 측정치를 사용하여 상태 변수의 추정 성능을 향상시켰다. 알고리즘의 신뢰성 검증을 위해 모바일 로봇에 센서를 탑재한 후 마커의 위치를 무작위로 설치하여 실험을 진행하였으며, 위치 측정치만을 사용한 항법 알고리즘과 비교하여 개선된 결과를 확인하였다. 이를 통해 신호 수신 가능 구역이 한정되어 있고, 신호의 세기에 영향을 받는 신호 기반의 항법 알고리즘에 비해, 보다 넓은 범위에서 마커의 설치만으로 단안 카메라와 관성측정장치를 통해 항법 해를 계산하는 제안된 알고리즘이 넓은 범용성과 안정적인 위치 추정 가능성을 확인하였다.

Acknowledgements

This research was supported by Unmanned Vehicles Core Technology Research and Development Program through the National Research Foundation of Korea (NRF) and Unmanned Vehicle Advanced Research Center (UVARC) funded by the Ministry of Science and ICT, the Republic of Korea (NRF-2023M3C1C1A01098408) and was supported by Basic Science Research Program through the National Research Foundation of Korea(NRF) funded by the Ministry of Education(No.2020R1A6A1A03038540)

References

1 
Hu, X., and Assaad, R. H, “The Use of Unmanned Ground Vehicles and Unmanned Aerial Vehicles in the Civil Infrastructure Sector: Applications, Robotic Platforms, Sensors, and Algorithms,” Expert Systems with Applications, 120897, 2023.DOI
2 
Kim, H., and Lee, D. J, “Real-time flight testing for developing an autonomous indoor navigation system for a multi-rotor flying vehicle,” Transactions of the Korean Society of Mechanical Engineers A, vol. 40, no. 4, pp. 343-352, 2016.DOI
3 
Han, D., Jung, S., Lee, M., and Yoon, G, “Building a practical Wi-Fi-based indoor navigation system,” IEEE Pervasive Computing, vol. 13, no. 2, pp. 72-79, 2014.DOI
4 
Kim, Y. H., Choi, M. J., Kim, E. J., and Song, J. W, “Magnetic-map-matching-aided pedestrian navigation using outlier mitigation based on multiple sensors and roughness weighting,” Sensors, vol. 19, no. 21, pp. 4782, 2019.DOI
5 
Tiemann, J., Schweikowski, F., and Wietfeld, C, “Design of an UWB indoor-positioning system for UAV navigation in GNSS-denied environments,” In 2015 international conference on indoor positioning and indoor navigation (IPIN), IEEE, pp. 1-7, October 2015.DOI
6 
Xing, H., Liu, Y., Guo, S., Shi, L., Hou, X., Liu, W., and Zhao, Y, “A multi-sensor fusion self-localization system of a miniature underwater robot in structured and GPS-denied environments,” IEEE Sensors Journal, vol. 21, no. 23, pp. 27136-27146, 2021.DOI
7 
Falco, G., Pini, M., and Marucco, G, “Loose and tight GNSS/INS integrations: Comparison of performance assessed in real urban scenarios,” Sensors, vol. 17, no. 2, pp. 255, 2017.DOI
8 
Huang, G, “Visual-inertial navigation: A concise review,” In 2019 international conference on robotics and automation (ICRA), IEEE, pp. 9572-9582, May 2019.DOI
9 
ABabinec, A., Jurišica, L., Hubinský, P., and Duchoň, F, “Visual localization of mobile robot using artificial markers,” Procedia Engineering, vol. 96, pp. 1-9, 2014.DOI
10 
Sani, M. F., and Karimian, G, “Automatic navigation and landing of an indoor AR. drone quadrotor using ArUco marker and inertial sensors,” In 2017 international conference on computer and drone applications (IConDA), IEEE, pp. 102-107, November 2017.DOI
11 
Zakiev, A., Tsoy, T., Shabalina, K., Magid, E., and Saha, S. K, “Virtual experiments on aruco and apriltag systems comparison for fiducial marker rotation resistance under noisy sensory data,” In 2020 International Joint Conference on Neural Networks (IJCNN), IEEE, pp. 1-6, July 2020.DOI
12 
Wang, J., Suenaga, H., Hoshi, K., Yang, L., Kobayashi, E., Sakuma, I., and Liao, H, “Augmented reality navigation with automatic marker-free image registration using 3-D image overlay for dental surgery,” IEEE transactions on biomedical engineering, vol. 61, no. 4, pp. 1295-1304, 2014.DOI
13 
Zheng, J., Bi, S., Cao, B., and Yang, D, “Visual localization of inspection robot using extended kalman filter and aruco markers,” In 2018 IEEE International Conference on Robotics and Biomimetics (ROBIO), IEEE, pp. 742-747, December 2018.DOI
14 
Kayhani, N., Heins, A., Zhao, W., Nahangi, M., McCabe, B., and Schoellig, A, “Improved tag-based indoor localization of UAVs using extended Kalman filter,” In Proceedings of the ISARC. International Symposium on Automation and Robotics in Construction, Banff, AB, Canada, pp. 21-24, May 2019.URL
15 
Lim, H., & Lee, Y. S, “Real-time single camera SLAM using fiducial markers,” In 2009 ICCAS-SICE, IEEE, pp. 177-182, August 2009.URL
16 
Park, S. J., Kim, S. T., Kim, Y. M., Lee, J. H., Song, J. W., and Kim, E. J., “GNSS-DR/INS Integrated Navigation Algorithm using GNSS Speed Information Fusion for Overcoming GNSS Denial Environment,” Journal of Institute of Control, Robotics and Systems, vol. 29, no. 1, pp. 72-79, 2023.URL
17 
Do, H. V., Kim, Y. H., Kwon, Y. S., Kim, H. J., and Song, J. W, “An Adaptive Approach based on Multi-State Constraint Kalman Filter for UAVs,” In 2021 21st International Conference on Control, Automation and Systems (ICCAS), IEEE, pp. 481-485, October 2021.DOI
18 
D. Titterton and J. Weston, Strapdown inertial navigation technology. IET, vol. 17, 2004.URL
19 
D. Simon, Optimal State Estimation: Kalman, H Infinity, and Nonlinear Approaches, John Wiley & Sons, 2006.URL

저자소개

서경욱(Kyeong-Wook Seo)
../../Resources/kiee/KIEE.2024.73.4.711/au1.png

He received B.S degree in Mechanical and Aerospace Engineering from Sejong University, Seoul, Korea, in 2023, where he is currently pursuing M.S. degree with the Department of Intelligent Mechatronics Engineering and Convergence Engineering for Intelligent Drone. His research interests include vision aided navigation, SLAM, and sensor fusion.

황동윤(Dong-Yun Hwang)
../../Resources/kiee/KIEE.2024.73.4.711/au2.png

He received B.S degree in Intelligent Mechatronics Engineering from Sejong University, Seoul, Korea, in 2023, where he is currently pursuing M.S. degree with the Department of Intelligent Mechatronics Engineering and Convergence Engineering for Intelligent Drone. His research interests include vision aided navigation, and sensor fusion.

이민호(Min-Ho Lee)
../../Resources/kiee/KIEE.2024.73.4.711/au3.png

He received B.S degree in Robot Engineering from Hoseo University, Asan, Korea, in 2023. He is currently pursuing M.S. degree with the Department of Intelligent Mechatronics Engineering and Convergence Engineering for Intelligent Drone in Sejong University, Seoul, Korea. His research interests include Signal processing, Radar aided navigation, SLAM, and sensor fusion.

송진우(Jin-Woo Song)
../../Resources/kiee/KIEE.2024.73.4.711/au4.png

He received the B.S. and M.S. degrees in control and instrumentation engineering from Seoul National University, in 1995 and 1997, respectively, and the Ph.D. degree in electrical, electronic and computer engineering from Seoul National University in 2002. He is currently an Associate Professor with the Department of Intelligent Mechatronics Engineering, Sejong University, Seoul, Korea. His research interests include GPS/INS integration, robust and optimal control, MEMS inertial sensors and systems, indoor navigation, and robot localization.

Do Hoang Viet
../../Resources/kiee/KIEE.2024.73.4.711/au5.png

He received the B.S. degree in Control Engineering and Automation Technology from Hanoi University of Science and Technology, Vietnam, in 2018, and the dual M.S. degree in Software Convergence and Convergence Engineering for Intelligent Drone from Sejong University, Seoul, Korea, in 2021, where he is currently working toward the Ph.D. degree in Intelligent Mechatronics Engineering. His research interests include Kalman Filtering and robot localization.