Recent Posts
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- PersistenceContext
- 개성국밥
- Value too long for column
- pytest
- 티스토리챌린지
- vfr video
- PytestPluginManager
- table not found
- 겨울 부산
- terminal
- addhooks
- tolerated
- JanusGateway
- 헥사고날아키텍처 #육각형아키텍처 #유스케이스
- JanusWebRTCServer
- 깡돼후
- mp4fpsmod
- 코루틴 컨텍스트
- Spring Batch
- 달인막창
- kotlin
- JanusWebRTCGateway
- VARCHAR (1)
- JanusWebRTC
- 오블완
- taint
- 코루틴 빌더
- python
- preemption #
- 자원부족
Archives
너와 나의 스토리
cross-entropy cost function 본문
반응형
cross-entropy
: 불확실성의 정도
- SEE(Sum Squared Error)보다 수렴이 빠르다
- classification 문제 / deep learning에서 많이 사용한다.
( regression 문제에서는 SEE 많이 사용)
- 대칭적(symmetric)이지 않다.
sigmoid function에서는 z가 어느정도 작거나 큰 값일 때, 항상 0이나 1에 가까운 값을 출력하기 때문에,
입력의 변화가 출력에 반영되기 어렵다. 그 결과, 오차 함수의 가중치 매개 변수에 대한 편미분이 0에 가까운 값이되어, 경사 하강법의 학습이 늦어지는 문제가 있다.
그래서 cross-entropy를 이용하여 cost function을 만든다.
cross-entropy cost function
S(y): 출력을 softmax로 변환
= $\hat{y}$(예측)
L: 실제 값
D(S,L) = -$\sum_{i}$$L_{i}$log($S_{i}$) = $\sum_{i}$$L_{i}$*-log($\hat{y}_{i}$)
Loss = $\frac{l}{n}$$\sum_{i}$D(S(w$x_{i}$+b),$L_{i}$)
반응형
'Data Analysis > Machine learning' 카테고리의 다른 글
RNN - 입력과 출력 시퀀스 (0) | 2019.08.07 |
---|---|
머신러닝 기초 지식 - Hands On (0) | 2019.08.01 |
Approximate entropy(ApEn) (0) | 2019.07.31 |
Keras 함수 / Numpy 함수 정리 (0) | 2019.07.29 |
NN(Neural Network) - backpropagation (0) | 2019.07.29 |
Comments