hidden layer가 있는 얕은 신경망에대해 알아보자.

이전 포스팅의 분류기와 달리 layer와 node가 여러개 있다.
그림에서 Input layer는
각 노드에서는
위 계산은 행렬 곱으로 표현할 수 있다.


지금까지는 activation function으로 sigmoid를 사용해왔다. sigmoid는 이진분류기의 출력층에 사용하기 적합한 activation function이고, 그 외에는 다른 activation function 사용을 추천한다. activation function 종류로는 sigmoid, tanh, ReLU, leaky ReLU 등이 있다.

hidden layer에 사용하는 activation function을

데이터


axis=1은 열방향으로 계산함을 의미하여 각 행의 sum을 구하고, keepdims=True는 sum결과 차원을 줄이지 않고 2차원으로 유지함을 의미한다.
에서
'Deep Learning' 카테고리의 다른 글
2.3 Hyperparameter Tuning, Batch Normalization (0) | 2023.03.27 |
---|---|
2.2 Optimization Algorithms (0) | 2023.03.14 |
2.1 Practical Aspects of Deep Learning (0) | 2023.02.28 |
1.3 Deep Neural Networks (0) | 2023.02.21 |
1.1 Neural Networks Basics (1) | 2023.02.07 |
댓글