일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 티스토리챌린지
- 코루틴 컨텍스트
- JanusGateway
- 달인막창
- 자원부족
- pytest
- addhooks
- 개성국밥
- 헥사고날아키텍처 #육각형아키텍처 #유스케이스
- python
- 깡돼후
- JanusWebRTC
- vfr video
- 코루틴 빌더
- PytestPluginManager
- 오블완
- terminal
- JanusWebRTCServer
- mp4fpsmod
- table not found
- taint
- preemption #
- Spring Batch
- tolerated
- JanusWebRTCGateway
- 겨울 부산
- kotlin
- PersistenceContext
- Value too long for column
- VARCHAR (1)
너와 나의 스토리
Keras 함수 / Numpy 함수 정리 본문
Keras
● Sequential
- keras.models.Sequential()
- Neural Network를 초기화하는데 필요
- model 생성자
● add
- models.add()
- sequential로 만든 모델에 특성 넣어줌
● Dense
- keras.layers.Dense(<출력 뉴런의 수>,<input_dim>,<init>,<activation>)
- input_dim: 입력 뉴런의 수 설정
- init: 가중치 초기화 방법 설정 (uniform / normal)
- activation: 활성화 함수 설정 (linear / relu / sigmoid / softmax)
- 입력 뉴런과 출력 뉴런을 모두 연결해준다.
- 참고
[출처: 데이터 사이언스 스쿨]
● GRU
- keras.layers.GRU()
- LSTM의 게이트 일부를 생략한 형태 (Gradient vanishing/explosing문제 없음)
● compile
- model.compile(<loss>,<optimizer>)
- 모델 학습과정 설정
- 손실 함수 및 최적화 방법 정의
- ex) model.compile(loss='mean_squared_error', optimizer='sgd') *sgd: 확률적 경사하강법
Numpy
● arange
- 특정한 규칙에 따라 증가하는 수열을 만든다.
np.arrange(10)
#출력: array([0, 1, 2, 3, 4, 5, 6, 7, 8, 9])
● reshape
- 기존 데이터는 유지하고 형태만 바꾼다
- -1을 인자로 넣을 수 있는데, 이렇게 하면 알아서 만들어줌
val1 = np.arange(10)
val2 = val1.reshape(2,5)
val2
#출력: array([[0, 1, 2, 3, 4], [5, 6, 7, 8, 9]])
val2= val1.reshape(2,-1)
val2
#출력 위와 동일
'Data Analysis > Machine learning' 카테고리의 다른 글
cross-entropy cost function (0) | 2019.07.31 |
---|---|
Approximate entropy(ApEn) (0) | 2019.07.31 |
NN(Neural Network) - backpropagation (0) | 2019.07.29 |
tensorflow 기초 및 함수 정리 (0) | 2019.07.26 |
Computer Network Traffic - kaggle 실습 / RNN (0) | 2019.07.25 |