dong_dong_2's

  • 홈
  • 태그
  • 방명록

data preprocessing 1

풀잎스쿨 - DeepML(CS231N) Lec. 06

오늘은 6강을 거의 봤다. 시간이 부족하여 전부 보지는 못했다. 1.활성화 함수(Activation Function)의 종류를 보았다. - Sigmoid : 이진 분류에 쓰인다. 0 ~ 1의 값이 나온다. vanishing gradient가 생길 수 있다. zero-centered 하지 못하다. exp함수를 이용하므로 계산이 복잡해진다. - tanh(x) : sigmoid의 단점을 일부 보완한다. zero-centered 하다. 그렇지만 vanishing gradient가 생길 수 있다. - ReLU : max(0, x), vanishing gradient문제를 해결했다. 효율적으로 계산한다. 훨씬 빠르게 수렴한다. 생물학적으로 더 뉴런처럼 행동한다. 그러나 zero-centered하지 못하다. 죽는다 ..

공부/AIFFEL 2021.02.01
이전
1
다음
더보기
프로필사진

dong_dong_2's

  • 분류 전체보기 (143)
    • 공부 (143)
      • AIFFEL (95)
      • 일일 및 누적공부 (48)

Tag

Resnet, 통계, 풀잎스쿨, R 보조강사, R, Fundamental, InsightMining, r shiny, Python, 독서, Going Deeper(CV), AIFFEL, Insight Mining, DeepML(CS231N), 머신러닝 딥러닝, 공부, 보조강사, ai, 인사이트마이닝, Exploration,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바