본문 바로가기

AI바라기의 인공지능

검색하기
AI바라기의 인공지능
프로필사진 AI바라기

  • 분류 전체보기 (331) N
    • 논문리뷰 (307) N
    • 최신AI정리 (3)
    • 스터디 (1)
    • 딥러닝 (7)
      • 컴퓨터비전 (5)
      • 자연어처리 (1)
    • 머신러닝 (2)
    • 통계 (2)
    • 인공지능 (1)
    • 정보이론 (1)
Guestbook
Notice
Recent Posts
Recent Comments
Link
«   2026/01   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
Tags
  • 영어학습법
  • AS
  • From
  • be to 부정사
  • 딥시크
  • IS
  • Into
  • TO 부정사
  • put
  • deekseek
  • \
  • ing
  • 자리의힘
  • 자리
  • 0528
  • 중국AI
  • TO
  • 5형식
  • 김원스쿨
  • GPT
more
Archives
Today
Total
관리 메뉴
  • 글쓰기
  • 방명록
  • RSS
  • 관리

목록전체 글 (331)

AI바라기의 인공지능

BatchNormalization, Dropout, Pooling, Activation function 적용 순서

딥러닝 네트워크 딥러닝 네트워크를 구성할때 다양한 layer와 정규화 기법을 사용합니다. convolutional layer dropout layer pooling layer batch normalization activation function ... 이와 같이 다양한 기법들을 사용하고 있는데 과연 어떤 순서로 주로 사용되고 있는지, 어떤 순서로 사용할 것을 권장하는지 알아보겠습니다. Batch Normalization 먼저 Batch Normalization의 경우 "Batch Normalization: Accelerating Deep Network Training b y Reducing Internal Covariate Shift" 의 저자인 Sergey Ioffe는 Convoluter Layer ..

딥러닝/컴퓨터비전 2023. 3. 28. 21:55
이전 Prev 1 ··· 31 32 33 34 Next 다음

Blog is powered by kakao / Designed by Tistory

티스토리툴바