https://www.youtube.com/watch?v=WjY57K9xX4s&list=PLlJy-eBtNFt6EuMxFYRiNRS07MCWN5UIA&index=3



backward propagation을 다시 한 번 공부하기 위해 시작했다.

처음부터 본다.


nn을 공부하기 전에 logistic regression으로 nn에서 쓰는 수식을 조금씩 배울 수 있다.


Sigma i Sigma j!=y max(0, s_j - s_y + 1)

각 class에 대해

제일 잘못 예상했을 경우 score - 예상이 적중한 경우의 score + 1

를 다 더한 것.


W 숫자의 전체적인 크기가 loss에 영향을 끼쳐버리는 부작용을 막기 위해서

L2 regularization





by 언제나19 2016. 8. 7. 11:37