티스토리 뷰

SLAM

[SLAM] 양정연 교수 SLAM 강의 27강. Prediction in KF

무엇보다_빛나는_샤트 2022. 2. 21. 21:24

2021. 10. 9. 13:50

 

안녕하세요

프로그래밍을 배우는 빛나는 샤트입니다. 

 

SLAM 강의 27강. Prediction in KF


*이 포스팅은 목원대학교 양정연 교수님의 SLAM강의 유튜브 영상을 보고 제작되었음을 밝힙니다.

출처: 27강. Prediction in KF

27강. Prediction in KF

🎉강의요약

1. 예측 단계에서는 Noise를 고려하지 않는다. 평균값(추정)을 이용하기 때문

2. X~N(X^,P): 추정값을 평균으로 가지고 분산 P(분포)를 가진다.

3. w~N(0,Q): E{w**2} = Q (기대값은 분산과 같다)

4. 예측P` = F**2P + Q

 

<Kalman Filter>

현재 k-1
다음 k
Xk = (Fk)(Xk-1) + (Bk)(uk) + (wk)
만약 Fk, Bk가 1이라면 Xk = (Xk-1) + (uk) + (wk)

현재 위치 + 입력 위치 = 최종 위치
Xk-1 + uk
> 초기 위치0에서 입력 위치가 1이라면 최종 위치는 1.

하지만 Fk가 1이 아니기 때문에 복잡한 것.

 

<left>

만약 Xk = Xk-1 + uk라면 결정론적.
하지만 noise(wk)가 추가. wk는 정확한 값을 모른다. 분포가 0주변에서 흔들리는 가우시안 형태로 표현된다.
wk의 분포의 모양(∩)대로 최종 위치의 분포가 형성된다.
ex) 1을 평균으로 가지는 분포.

 

<right>

예측의 단계에서는 노이즈를 제외하고
Xk = (Xk-1) + (uk)
위 식을 이용한다. 노이즈는 모델링이 되지 않으므로.
> Kalman Filter의 첫 번째 단계.
예측: k-1단계에서 k단계를 알아내는 것.
covariance를 이용해 Kalman Gain을 얻어낸다.

x~N(x^,P): 추정값을 평균을 두고 covariance로 표현.
1차원일때는 분산 하나로 표현 가능하지만 다차원에서는 covariance로 표현.

 

<1. Estimation of X>

Kalman Filter은 이산화된 방법을 적용
정확한 값 X를 구하기 위함.
센서를 가지고 X를 관측하는 관점.

 

<1. Estimation of X with X^ and covariance, P>

실제로는 Process Error을 적용시켜서 봐야한다.
시작할 때의 값은 알고 있는데 입력 U를 이용
w가 추가되어 알 수 없는 값이 된다.

variance가 작을수록 뾰족해지기 때문에 값을 특정할 수 있게 된다.
P=0이 베스트이지만 실제로는 그렇지 않다.

X~N(X^,P)는 가장 잘 표현하며 중요한 수식!

Kalman Filter는 점이 아니라 영역(확률 밀도)라는 점.

 

<2. Prediction of X^, by system model>

X^은 추정값.
X는 원래 분포이지만 평균적인 값인  X^을 이용.
X^은 평균값이기때문에 Noise를 계산하지 않음.

wk로 인해서 분포가 더 넓어졌다. 그러면 이걸 어떻게 계산하나?

>> 예측은 추정값(평균값)을 이용해 구한다.

 

<2. Prediction of X^ by system model>

예측된 값은 프라임을 붙여서 표현.
추정 -> 예측

 

<3. Prediction of Covariance, P>

P, P`의 계산
에러(e) = x^ - x (평균과 값의 차이)
P는 에러의 제곱의 합 평균; 분산

P`은 예측 후의 값.
e` = x^` - x
P` = E{e(k+1)**2}
식 x = Fx - w을 이용 (u=0)
식 x^` = Fx^ 이용

E{ew}=0을 구하는 것이 중요
> e, w는 서로 교차하지 않는다. 상관이 없다. 에러와 노이즈(독립사건)
>> 즉, 0이다.

결국 P` = F**2P + Q 가 된다.

 

 

처음에 봤던 수식을 만족하는 것을 알 수 있다!

 

 

피드백은 언제나 환영합니다.😊

틀린 부분 있다면 지적해주시고 도움이 되었다면 댓글 공감 눌러주세요

LIST
댓글