Recent Posts
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- vfr video
- taint
- JanusGateway
- PersistenceContext
- kotlin
- preemption #
- Value too long for column
- VARCHAR (1)
- 자원부족
- 오블완
- 헥사고날아키텍처 #육각형아키텍처 #유스케이스
- table not found
- JanusWebRTC
- 코루틴 빌더
- mp4fpsmod
- 티스토리챌린지
- PytestPluginManager
- python
- 개성국밥
- Spring Batch
- terminal
- tolerated
- 겨울 부산
- 깡돼후
- JanusWebRTCServer
- pytest
- 코루틴 컨텍스트
- JanusWebRTCGateway
- addhooks
- 달인막창
Archives
너와 나의 스토리
[Machine Learning - google developers] ML로 전환하기 - 선형 회귀 / 학습 및 손실 본문
Data Analysis/Machine learning
[Machine Learning - google developers] ML로 전환하기 - 선형 회귀 / 학습 및 손실
노는게제일좋아! 2019. 7. 19. 11:06반응형
출처: https://developers.google.com/machine-learning/crash-course/
Step1. ML 문제로 표현하기
Step2. ML로 전환하기
● 선형 회귀
y′: 예측된 라벨(얻고자 하는 출력)
b: y절편
$x_{i}$: 특성
$w_{i}$: 해당 특성에 대한 가중치 -> 기울기
● 학습 및 손실
- 학습: 라벨이 있는 데이터로부터 올바른 가중치와 편향값을 학습(결정)하는 것
- 경험적 위험 최소화: (지도 학습에서 머신러닝 알고리즘은) 다양한 예를 검토하고 손실을 최소화 하는 모델을
찾아봄으로써 모델을 만들어내는 과정
- 손실: 한 가지 예에서 모델의 예측이 얼마나 잘못되었는지를 나타내는 수
손실 함수 - 제곱 손실
(MSE: 평균 제곱 오차)
- (x,y)에서 x는 특성 집합, y는 실제 결과(라벨)
- prediction(x): 특성 집합(x)과 결합된 가중치 및 편향의 함수
- D는 (x,y) 쌍과 같이 여러 라벨이 있는 예가 포함된 데이터 세트
- N은 D에 포함된 예의 수
* MSE는 모든 상황에서 최선인 유일한 손실 함수는 아니다
반응형
'Data Analysis > Machine learning' 카테고리의 다른 글
time series data 다루기 - kaggle 실습 / pandas 함수 정리 (0) | 2019.07.22 |
---|---|
[Machine Learning - google developers] 손실 줄이기 (0) | 2019.07.19 |
GBM(Gradient Boosting) (0) | 2019.07.18 |
GP(Gaussian Process regression) (0) | 2019.07.17 |
딥러닝과 머신러닝 차이 (0) | 2019.07.17 |
Comments