관리 메뉴

너와 나의 스토리

Bayesian Decision Theory 본문

Data Analysis/Probability and statistics

Bayesian Decision Theory

노는게제일좋아! 2019. 9. 30. 16:52
반응형

연어와 농어를 길이와 밝기로 구분한다고 해보자

경계선을 기준으로 길이가 11cm 보다 작으면 연어, 크면 농어라고 할 때, 오차는 왼쪽에서는 빨간선(농어) 아래 너비와 같다.

 

 

 

 

 

 

 

 

 

 

 

 

 

  • prior 정보만 가지고 결정
    • 만약 P(w1) > P(w2)이면 w1 결정
  • class-conditional(=likelihood) 정보 사용
    • P(x|w1)과 P(x|w2)는 연어와 농어의 개체군 사이의 밝기 차이를 설명한다.
    • P(x|w1) 뜻: 물고기 종류가 w1일 때, 밝기가 x일 확률

 

 

Posterior, likelihood, evidence

prior probability: P(w)            -> 데이터 자체의 분포

Likelihood probability: P(x|w)   -> 데이터로 구할 수 있음

Posterior probability: P(w|x)     -> 우리가 알아내야 할 것

 

Posterior P($w_j$|x)에서 $w_j$가 우리가 구해야할 parameter

 

 

  • error 확률을 최소화 해야한다.
  • 만약 P($w_1$|x)>P($w_2$|x)이면 $w_1$을 결정
  • P(error|x)= min [P($w_1$|x),P($w_2$|x)]

 

 

https://taeoh-kim.github.io/blog/머신러닝에서의-확률-분포-랜덤-변수-그리고-maximum-likelihood/

 

머신러닝에서의 확률 분포, 랜덤 변수 그리고 Maximum Likelihood

Computer Vision and Machine Learning Study Post 4 머신러닝에서의 확률 분포, 랜덤 변수 그리고 Maximum Likelihood Reference는 다음과 같습니다. 1. 우리는 왜 확률을 배우는가? 머신 러닝 정의는, 관측된 Data(=Training Sample)로부터 Model을 설계하는 것이다. 확률적 개념이 들어간다면, 관측된 Data는 진짜 Data가 아니라 진짜 Data로부터 Random하게 Sampli

taeoh-kim.github.io

 

 

 

 

 

 

출처: [A First Course in Probability, 8th edition]

 

 

반응형
Comments