Recent Posts
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- mp4fpsmod
- 오블완
- JanusWebRTCGateway
- 코루틴 컨텍스트
- kotlin
- 개성국밥
- 달인막창
- python
- JanusWebRTCServer
- 티스토리챌린지
- terminal
- PytestPluginManager
- 겨울 부산
- Value too long for column
- addhooks
- Spring Batch
- 자원부족
- 코루틴 빌더
- JanusWebRTC
- 깡돼후
- vfr video
- taint
- tolerated
- VARCHAR (1)
- preemption #
- table not found
- JanusGateway
- pytest
- PersistenceContext
- 헥사고날아키텍처 #육각형아키텍처 #유스케이스
Archives
너와 나의 스토리
GBM(Gradient Boosting) 본문
반응형
GP
먼저 모델을 하나를 만든다. 이 모델에서 발견되는 오차를 보완할 모델을 새로 만들어 그 전 모델과 합친다. 이 과정을 반복한다.
즉, weak learners를 하나의 strong learner에 결합시키는 과정을 반복한다.
Least-squares 설정으로 설명하면 쉽다. 여기서 목표는 $\hat{y}$=F(x)형태의 값을 예측하는 모델 F를 학습시키는 것이다. 평균 제곱 오차( $\tfrac {1}{n}\sum _{i}({\hat {y}}_{i}-y_{i})^{2}$ )를 최소화함으로써
각 단계 m (1≤m≤M of gradient boosting)에서 불황전한 모델 $F_{m)$이 있다고 하자.
(처음 F는 y의 평균을 예측하는 모델도 가능)
$F_{m+1}(x) = F_{m}(x)+h(x)$ = y이다.
우리는 이 h를 찾아야한다.
h(x) = y-$F_{m}(x)$
h?
제곱 오차 이외의 loss function, classification, ranking problems에 대한 일반화는 주어진 모형에 대한 나머지 y-F(x)가 suared error less function($\tfrac{1}{2}(y-F(x))^{2}$)의 음의 기울기 임을 관찰한 결과를 따른다.
즉, gradient boosting은 gradient descent algorithm이며, 일반화하려면 다른 loss와 그 gradient를 연결해야 한다.
반응형
'Data Analysis > Machine learning' 카테고리의 다른 글
[Machine Learning - google developers] 손실 줄이기 (0) | 2019.07.19 |
---|---|
[Machine Learning - google developers] ML로 전환하기 - 선형 회귀 / 학습 및 손실 (0) | 2019.07.19 |
GP(Gaussian Process regression) (0) | 2019.07.17 |
딥러닝과 머신러닝 차이 (0) | 2019.07.17 |
Neural Network - 모두를 위한 딥러닝 (0) | 2019.07.17 |
Comments