티스토리 뷰
2021. 10. 9. 13:50
안녕하세요
프로그래밍을 배우는 빛나는 샤트입니다.
SLAM 강의 27강. Prediction in KF
*이 포스팅은 목원대학교 양정연 교수님의 SLAM강의 유튜브 영상을 보고 제작되었음을 밝힙니다.
출처: 27강. Prediction in KF
27강. Prediction in KF
🎉강의요약
1. 예측 단계에서는 Noise를 고려하지 않는다. 평균값(추정)을 이용하기 때문
2. X~N(X^,P): 추정값을 평균으로 가지고 분산 P(분포)를 가진다.
3. w~N(0,Q): E{w**2} = Q (기대값은 분산과 같다)
4. 예측P` = F**2P + Q
<Kalman Filter>
현재 k-1
다음 k
Xk = (Fk)(Xk-1) + (Bk)(uk) + (wk)
만약 Fk, Bk가 1이라면 Xk = (Xk-1) + (uk) + (wk)
현재 위치 + 입력 위치 = 최종 위치
Xk-1 + uk
> 초기 위치0에서 입력 위치가 1이라면 최종 위치는 1.
하지만 Fk가 1이 아니기 때문에 복잡한 것.
<left>
만약 Xk = Xk-1 + uk라면 결정론적.
하지만 noise(wk)가 추가. wk는 정확한 값을 모른다. 분포가 0주변에서 흔들리는 가우시안 형태로 표현된다.
wk의 분포의 모양(∩)대로 최종 위치의 분포가 형성된다.
ex) 1을 평균으로 가지는 분포.
<right>
예측의 단계에서는 노이즈를 제외하고
Xk = (Xk-1) + (uk)
위 식을 이용한다. 노이즈는 모델링이 되지 않으므로.
> Kalman Filter의 첫 번째 단계.
예측: k-1단계에서 k단계를 알아내는 것.
covariance를 이용해 Kalman Gain을 얻어낸다.
x~N(x^,P): 추정값을 평균을 두고 covariance로 표현.
1차원일때는 분산 하나로 표현 가능하지만 다차원에서는 covariance로 표현.
<1. Estimation of X>
Kalman Filter은 이산화된 방법을 적용
정확한 값 X를 구하기 위함.
센서를 가지고 X를 관측하는 관점.
<1. Estimation of X with X^ and covariance, P>
실제로는 Process Error을 적용시켜서 봐야한다.
시작할 때의 값은 알고 있는데 입력 U를 이용
w가 추가되어 알 수 없는 값이 된다.
variance가 작을수록 뾰족해지기 때문에 값을 특정할 수 있게 된다.
P=0이 베스트이지만 실제로는 그렇지 않다.
X~N(X^,P)는 가장 잘 표현하며 중요한 수식!
Kalman Filter는 점이 아니라 영역(확률 밀도)라는 점.
<2. Prediction of X^, by system model>
X^은 추정값.
X는 원래 분포이지만 평균적인 값인 X^을 이용.
X^은 평균값이기때문에 Noise를 계산하지 않음.
wk로 인해서 분포가 더 넓어졌다. 그러면 이걸 어떻게 계산하나?
>> 예측은 추정값(평균값)을 이용해 구한다.
<2. Prediction of X^ by system model>
예측된 값은 프라임을 붙여서 표현.
추정 -> 예측
<3. Prediction of Covariance, P>
P, P`의 계산
에러(e) = x^ - x (평균과 값의 차이)
P는 에러의 제곱의 합 평균; 분산
P`은 예측 후의 값.
e` = x^` - x
P` = E{e(k+1)**2}
식 x = Fx - w을 이용 (u=0)
식 x^` = Fx^ 이용
E{ew}=0을 구하는 것이 중요
> e, w는 서로 교차하지 않는다. 상관이 없다. 에러와 노이즈(독립사건)
>> 즉, 0이다.
결국 P` = F**2P + Q 가 된다.
처음에 봤던 수식을 만족하는 것을 알 수 있다!
피드백은 언제나 환영합니다.😊
틀린 부분 있다면 지적해주시고 도움이 되었다면 댓글과 공감 눌러주세요
'SLAM' 카테고리의 다른 글
[SLAM] 양정연 교수 SLAM 강의 29강. From Kalman Filter to Particle Filter (0) | 2022.02.21 |
---|---|
[SLAM] 양정연 교수 SLAM 강의 28강. Kalman Gain in Kalman Filter (0) | 2022.02.21 |
[SLAM] 양정연 교수 SLAM 강의 26강. Introduction to Kalman Filter (0) | 2022.02.21 |
[SLAM] 양정연 교수 SLAM 강의 25강. Why we need Observation? (0) | 2022.02.21 |
[SLAM] 양정연 교수 SLAM 강의 24강. From math equation to State Equation (0) | 2022.02.21 |
- Total
- Today
- Yesterday
- 아이펠
- 서빙로봇
- 멘탈관리
- 인공지능교육
- Python
- 해커톤
- 도전
- 대전 인공지능
- SLAM공부
- 양정연SLAM
- AIFFEL
- AIFFEL교육
- 광주AI
- 자율주행로봇
- 멋쟁이사자처럼
- 광주
- 광주인공지능사관학교
- 자율주행기술
- 인공지능 교육
- 모두의연구소
- 실내자율주행
- IT
- 모두의 연구소
- 인공지능
- ros
- 배달로봇
- Slam
- SLAM강의
- AIFFEL인공지능과정
- AIFFEL후기
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |