Recent Posts
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- PytestPluginManager
- pytest
- JanusWebRTC
- JanusWebRTCGateway
- taint
- 헥사고날아키텍처 #육각형아키텍처 #유스케이스
- 오블완
- vfr video
- Spring Batch
- terminal
- preemption #
- kotlin
- 깡돼후
- 코루틴 컨텍스트
- 개성국밥
- table not found
- 자원부족
- tolerated
- addhooks
- Value too long for column
- JanusGateway
- PersistenceContext
- mp4fpsmod
- python
- 달인막창
- 코루틴 빌더
- VARCHAR (1)
- 티스토리챌린지
- JanusWebRTCServer
- 겨울 부산
Archives
너와 나의 스토리
모두를 위한 딥러닝 - RNN 실습(3) 본문
반응형
모두를 위한 딥러닝 ML lab12-3: Long Sequence RNN 강의 정리&코드
전체 코드: https://github.com/hunkim/DeepLearningZeroToAll/blob/master/lab-12-2-char-seq-rnn.py
1. data creation
# Data creation
idx2char = ['h', 'i', 'e', 'l', 'o']
# Teach hello: hihell -> ihello
x_data = [[0, 1, 0, 2, 3, 3]] # hihell
x_one_hot = [[[1, 0, 0, 0, 0], # h 0
[0, 1, 0, 0, 0], # i 1
[1, 0, 0, 0, 0], # h 0
[0, 0, 1, 0, 0], # e 2
[0, 0, 0, 1, 0], # l 3
[0, 0, 0, 1, 0]]] # l 3
이런식으로 직접 one_hot encoding을 하면 문자열이 길어질 때 힘들어진다.
Better data creation
자동으로 인코딩함
[:-1] : 처음부터 (마지막-1)까지
[1:] : 1부터 마지막까지
num_classes: indx2char의 크기와 똑같다
2. Hyper parameter
3. LSTM and Loss
4. Training and Results
x_data, y_data를 feed로 넘겨주면서 train 시키고, 그 때 마다 loss를 보면서 prediction함
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
for i in range(50):
l, _ = sess.run([loss, train], feed_dict={X: x_data, Y: y_data})
result = sess.run(prediction, feed_dict={X: x_data})
# print char using dic
result_str = [idx2char[c] for c in np.squeeze(result)]
print(i, "loss:", l, "Prediction:", ''.join(result_str))
굉장히 긴 문자열이 들어오는 경우
1. dataset 쪼개기
0~169: dataset을 쪼개서 여러개의 batch를 만듦
2. RNN parameters
len(dataX): 169
반응형
'Data Analysis > Machine learning' 카테고리의 다른 글
Deep learning - ANN / CNN (0) | 2019.08.09 |
---|---|
모두를 위한 딥러닝 - RNN 실습(4) (0) | 2019.08.07 |
모두를 위한 딥러닝 - RNN 실습(2) (0) | 2019.08.07 |
모두를 위한 딥러닝 - RNN 실습(1) (0) | 2019.08.07 |
RNN - 입력과 출력 시퀀스 (0) | 2019.08.07 |
Comments