1. 이전에 일부만 배운 backpropagation에 대해서 배웠다. local gradient들을 미분하여 구하는 법, 하다보니 add, mul, max에 대해서 local gradient의 특징이 나타난다.
2. sigmoid gate를 미분하여 gradient를 구해봤다.
3. CNN 모델에 대해서 backpropagation을 해봤다. 자코비안 행렬(Jacobian matrix)이란 개념이 나왔다.
4. Neural Networks을 배웠다. 계층에 대해서 배웠고, 2-layer Neural Network과 3-layer Neural Network의 구조를 봤다.
5. 인공신경망 함수와 실제 뉴런의 구조를 비교하면서 봤다.
6. 활성함수의 종류를 간략히 살펴보았다.
출처 : cs231n.stanford.edu/slides/2017/cs231n_2017_lecture4.pdf
'공부 > AIFFEL' 카테고리의 다른 글
FUNDAMENTAL 10. 당신의 행운의 숫자는? 나만의 m면체 주사위 위젯 만들기 (0) | 2021.01.20 |
---|---|
2021년 1월 19일 모두의 연구소(인공지능 전문가 과정) - 16일차 (0) | 2021.01.19 |
FUNDAMENTAL 9. 사이킷런으로 구현해 보는 머신러닝 (0) | 2021.01.18 |
FUNDAMENTAL 8. 데이터를 한눈에! Visualization (0) | 2021.01.15 |
FUNDAMENTAL 7. 터미널로 배우는 리눅스 운영체제 (0) | 2021.01.13 |