글
backward propagation을 다시 한 번 공부하기 위해 시작했다.
처음부터 본다.
nn을 공부하기 전에 logistic regression으로 nn에서 쓰는 수식을 조금씩 배울 수 있다.
Sigma i Sigma j!=y max(0, s_j - s_y + 1)
각 class에 대해
제일 잘못 예상했을 경우 score - 예상이 적중한 경우의 score + 1
를 다 더한 것.
W 숫자의 전체적인 크기가 loss에 영향을 끼쳐버리는 부작용을 막기 위해서
L2 regularization
'공부 > Computers' 카테고리의 다른 글
Leetcode 329 Longest Increasing Path in a Matrix (0) | 2020.08.09 |
---|---|
coursera recent deep learning courses (0) | 2020.05.04 |
codejam 2020 R1 나중에 다시 볼 문제 기록 (0) | 2020.05.02 |
codejam 2018 R1B R1C practice (0) | 2020.04.10 |
kickstart 2019 Round A 공부 (0) | 2020.03.16 |
SPRING FRAMEWORK ESSENTIALS video 보기 (2) | 2016.06.17 |
videolectures로 PLSI, LDA 공부 (1) | 2016.04.18 |
real time recommendation: Google News Personalization: Scalable Online Collaborative Filtering 논문 읽기 (0) | 2016.04.01 |
groovy study (0) | 2015.12.28 |
Tinkerpop and Titan graph database study (0) | 2015.12.25 |
RECENT COMMENT