Deep Learning6 1.2 Shallow Neural Networks hidden layer가 있는 얕은 신경망에대해 알아보자. 이전 포스팅의 분류기와 달리 layer와 node가 여러개 있다. \(l\)번째 layer는 \(a^{[l]}\), \(l\)번째 layer의 \(k\)번째 node를 \(a^{[l]}_k\)로 표현한다. 그림에서 Input layer는 \(a^{[0]}=X\), hidden layer는 \(a^{[1]}\), output layer는 \(a^{[2]}=\hat{y}\)으로 표현하고, 이런 신경망을 2 layer Neural Network라고 한다.(input layer는 카운트에서 제외된다.) 각 노드에서는 \(z=w^Tx+b, a=\sigma(z)\) 계산이 수행된다. \(a^{[1]}\)에서의 계산을 풀어보면 다음과 같다. \(z^{[1]}.. 2023. 2. 14. 1.1 Neural Networks Basics 이미지가 고양이 이미지인지(1) 아닌지(0) 구분하는 binary classification이 있다고 하자. 이미지는 64 pixels X 64 pixels이며, 각 픽셀은 RGB로 표현된다. binary classification의 input feature vector의 shape는 (1, 64*64*3)이고 input size(\(n_x\))는 64*64*3, output size(\(n_y\))는 1이다. \(m\)개의 이미지를 분류하는 경우, input matrix \(X\)의 shape는 (\(n_x\), \(m\))이고 label matrix \(Y\)의 shape는 (\(n_y\), \(m\))이다. \(i\)번째 example(\(X\) 의 \(i\)번째 column)은 \(x^{(i)}\.. 2023. 2. 7. 이전 1 2 다음