Data Analysis/Machine learning

Neural Network - 모두를 위한 딥러닝

노는게제일좋아! 2019. 7. 17. 13:28
반응형

출처: https://www.youtube.com/watch?v=oFGHOsAYiz0&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm&index=29&t=0s

 

모두를 위한 딥러닝 시즌 1 - ML lab 09-1: Neural Net for XOR

 

XOR

X = A ⊕ B

- A != B  -> X=1

- A == B -> X=0

 

 

Neural Net

hypothesis 세울 때

이렇게 바로 1단계로 세우는 것이 아니라

처음 세운 것을 layer1로 하고, 한 번도 이 작업을 수행하는데 이때 입력으로 layer1을 넣어준다.

layer1 세울 때 weight의 output 개수와 w2 input 개수가 같음
즉, 이런 식으로 진행됨

이렇게 out을 많이 하는 것을 wide하다고 하는데, 이렇게 하면 성능은 좋아지나 in에 비해 out이 이렇게 만게는 잘 안함

반응형