티스토리 뷰

SLAM

[SLAM] 양정연 교수 SLAM 강의 19강. Bayesian Probabilisty

무엇보다_빛나는_샤트 2022. 2. 21. 21:19

2021. 10. 5. 23:53

 

안녕하세요

프로그래밍을 배우는 빛나는 샤트입니다. 

 

SLAM 강의 19강. Bayesian Probabilisty


*이 포스팅은 목원대학교 양정연 교수님의 SLAM강의 유튜브 영상을 보고 제작되었음을 밝힙니다.

출처: 19강. Bayesian Probabilisty

19강. Bayesian Probabilisty

🎉강의요약

1. 문제를 조건부 확률로 볼 필요가 있다.

2. 베이지안 분류기를 이용해 키를 크다? 작다? 분류

3. 데이터를 수집해 특정 값x에 대해 키가 큰지 작은지 알고 싶은 경우 prior, likelihood, evidence를 이용해 구해야 한다.

 

 

<Why Posterior Prob. Is very different?>

가위바위보
1. 가위를 낼 Prior 확률: 1/3
2. 2번 연속 가위를 낼 확률은...? 조건부 확률 이용

 

<Posterior Prob.>

Pr(A|B) = P(A∩B) / P(B)
또한 P(A) = P(B|A)PA(A) 이므로
>> Pr(A|B) = P(B|A)P(A) / P(B)

 

<Why Posterior Probability? It reduces Classification Errors..>

랜덤값 x가 주어졌을때 C에 속한다 또는 그렇지 않다 라는 것을 판단하는 문제 설계

 

<Is It Big or Not?>

위쪽 그림은 크다는 것을 판별할 수 있지만 아래는 알 수 없다. 왜냐하면 비교대상이 없기 때문.
일반적인 사과의 크기와 비교해서 크다 라는 생각을 해야 한다.
> 모든 문제를 조건부 확률로 보는 것이 중요.

 

<Classification: Bayesian Classifier>

키라고 하는 x값. x= 170일때 크다(w1), 아니다(w2)
x축 위에 분포가 있을때 어떤 값이 나올때 키가 큰지 작은지 판별하는 것을 설명
이것을 누가 결정하나? 많은 사람들.

 

<Classification: Bayesian Classifier> - Test1

키를 데이터로 주고 설문조사. 크다고 생각하는 데이터를 표현(히스토그램)
180 근처에 확률 분포가 형성. 이 데이터를 토대로 평균과 표준편차를 이용해 그래프를 그린다. PDF를 그릴 수 있다.

 

<Classification: Bayesian Classifier> - Test2

H=160일때 히스토그램.
표준편차는 위 그림보다 큰 형태가 된다.

문제를 확률적으로 푸는 법: 거리 센서값일 때 150일때는 장애물이 있는 가능성이 낮다(밀도가 낮다)

 

<Sample from Surveys>

w1은 키가 크다. w2는 키가 작다.
180 근처면 키가 크다.(표준정규분포에 가깝게)
키가 작다는 의견은 조금 더 넓게. 표준편차가 크다.

수집한 데이터가 가우시안 분포를 가진다고 하면 위와 같이 mean, std를 구할 수 있다. 결과를 확인해보니 w1이 표준편차가 더 크다는 것을 알 수 있다.

예를 들어 x=170이라는 값을 이용할 때 키가 큰 지 작은지 알아보려고 할때, 위 수식에 평균(μ)와 표준편차(σ)를 대입해 나오는 값을 비교해보면 키가 더 큰 것을 알 수 있다.

 

<Classification: Bayesian Classifier>

Pr(x): 입력x가 큰지 작은지 결정하는 확률
Pr(w2): 예를 들어 w1은 100개, w2는 50개라고 할때, 50/150의 prior 확률
Pr(w2|x): 입력x가 주어졌을때 w2일 확률
Pr(x|w2): w2일때 x일 확률. 키가 작은것들 중에 키가 170일 확률. 키가 작다고 응답한 사람 중에 170은 몇 개나 있나?

 

<Classification: Bayesian Classifier>

위 그래프는 두 가지.
P(x|w2): w2일때 x의 분포
P(x|w2): w1일때 x의 분포

 

<Samples>

키가 크다고 생각하는 것들의 x분포가 이러한 커브를 그린다.

 

<For Bayesian Classifier p(x|w) and p(w) are required.>

P(w1) = w1데이터 / 전체 데이터
P(w2) = w2데이터 / 전체 데이터

 

<Back to Bayesian Probability>

[오른쪽]위 수식은 위 아래로 동치. likelihood, prior, evidence

[왼쪽]likelihood: 입력x가 있을때 w1의 밀도, w2의 밀도를 비교하는 것
좌측 공식을 이용해 P(w1|x), P(w2|x)를 구한다.

P(x)를 구하는법 필요

 

<Definition Bayesian Classifier>

Pr(w1|x) > Pr(w2|x)라고 하면 x는 키다 크다(w1) 라고 할 수 있다.
아니라면 키가 작다(w2)라고 할 수 있다.
또한 유의해야할 점은 P(w1), P(w2)를 구할 때 너무 데이터 편차가 큰 경우를 조심해야 한다. P(w1) = 100/101, P(w2) = 1/101

 

<Finally. P(x)=?>

P(w1|x) + P(w2|x) = 1 을 이용해 구할 수 있다.
즉, 정리한 수식이 위와 같이 구할 수 있다.

 

<Posterior Probability in General>

최종적인 수식을 위 처럼 구할 수 있다.

 

<Engineering Notation>

likelihoodness * prior/모든사건
Maxium LIkelihood Estimation: 회귀에서 적용가능

likelihoodness: 모델이 있을 때 그 위에 있는 값들의 분포. 직선이 있을 때 데이터가 어떻게 분포했는지 알 수 있다.

 

 

피드백은 언제나 환영합니다.😊

틀린 부분 있다면 지적해주시고 도움이 되었다면 댓글 공감 눌러주세요

LIST
댓글