공부/Computers
cs231n stanford dnn image classification 보는 중
언제나19
2016. 8. 7. 11:37
backward propagation을 다시 한 번 공부하기 위해 시작했다.
처음부터 본다.
nn을 공부하기 전에 logistic regression으로 nn에서 쓰는 수식을 조금씩 배울 수 있다.
Sigma i Sigma j!=y max(0, s_j - s_y + 1)
각 class에 대해
제일 잘못 예상했을 경우 score - 예상이 적중한 경우의 score + 1
를 다 더한 것.
W 숫자의 전체적인 크기가 loss에 영향을 끼쳐버리는 부작용을 막기 위해서
L2 regularization