[Ⅰ. Neural Networks and Deep Learning] Shallow Neural Networks (6)
Neural Networks Basics
Shallow Neural Networks
Random Initialization
신경망을 변경할 때는 가중치를 무작위로 초기화하는 것이 중요합니다. 로지스틱 회귀의 경우 가중치를 0으로 초기화해도 괜찮습니다. 그러나 매개변수에 대한 가중치를 모두 0으로 초기화한 다음 기울기 하강을 적용하면 작동하지 않을 것입니다. 왜 그런지 보겠습니다.
댓글남기기