일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 달인막창
- addhooks
- JanusWebRTC
- tolerated
- 코루틴 컨텍스트
- preemption #
- kotlin
- VARCHAR (1)
- PytestPluginManager
- terminal
- JanusWebRTCGateway
- python
- Spring Batch
- 겨울 부산
- mp4fpsmod
- 오블완
- 개성국밥
- 티스토리챌린지
- taint
- table not found
- 깡돼후
- 자원부족
- 헥사고날아키텍처 #육각형아키텍처 #유스케이스
- JanusWebRTCServer
- Value too long for column
- JanusGateway
- vfr video
- PersistenceContext
- 코루틴 빌더
- pytest
너와 나의 스토리
Andrew Ng - machine learning 정리 [Lecture 4] 본문
Andrew Ng - machine learning 정리 [Lecture 4]
노는게제일좋아! 2019. 7. 3. 22:19강의: www.coursera.org
Lecture 4 Linear Regression With Multiple Variables
Multiple feature 함수
-
n=feature개수
다중 변수인 경우 Xj의 각 값이 반영된다.
GD: Feature Scaling
idea: Make sure features are on a similar scale.
x1과 x2의 값 차이가 많이 나면 왼쪽처럼 얇고 긴 타원 모양이되고,
gradient descent의 최적값 찾는 경로가 복잡하고 많이 이동하게 된다.
오른쪽 같은 경우는 x1과 x2가 비슷하다. 이처럼 각 변수 값이 일정해지면 ,
gradient descent의 최적값을 짧은 경로로 쉽게 찾을 수 있다.
Feature Scaling
-> 모든 feature을 대략 -1<= Xi <= 1 범위로 가져온다
[0<= X1 <=3] [-2<=x2<=0.5] 이 정도는 괜찮
[-100<=X3<=100] 이렇게 너무 많이 차이나면 안됨
Mean normalization
평균 값을 고려하여 정규화 하기
feature을 거의 0으로 만들기 위해 Xi를 Xi-ui로 바꿔준다.
ㄴ S: 표준 편차 or (max-min)
u: 평균 값
J(Θ)는 gradient descent가 진행될수록 감소해야 한다.
기존 feature을 그대로 사용하는게 아니라, 변형해서 최적화된 feature을 사용
첫 번째 식은 파란 선처럼 나중에 감소해서 위 자료에는 맞지 않음
Normal Equation
-
feature scaling이 필요없고, learning rate도 지정할 필요가 없음
-
계산이 빠르고 쉽게 원하는 값을 찾을 수 있다.
ㄴ J(Θ)가 최소가 되는 Θ
-
n이 크면 계산량이 많아서 보통 GD 사용함
'Data Analysis > Machine learning' 카테고리의 다른 글
ARIMA(autoregressive integrated moving average)란? (0) | 2019.07.11 |
---|---|
Forecasting at Uber (0) | 2019.07.11 |
jupyter notebook [anaconda, tensorflow] (0) | 2019.07.05 |
Andrew Ng - machine learning 정리 [Lecture 2] (0) | 2019.07.03 |
Andrew Ng - machine learning 정리 [Lecture 1] (0) | 2019.07.03 |