Skip to content

Latest commit

 

History

History
35 lines (26 loc) · 864 Bytes

README.md

File metadata and controls

35 lines (26 loc) · 864 Bytes

25. Regularization

정칙화(Regularization) 개념과, L1, L2 regularization, Dropout, batch normalization에 대해 알아본다.


- 목차 ⏲ 140분
25-1 들어가며 5분
25-2 Regularization과 Normalization 20분
25-3 L1 Regularization 20분
25-4 L2 Regularization 20분
25-5 Extra : Lp norm 15분
25-6 Dropout 30분
25-7 Batch Normalization 30분

학습 목표

  • 정칙화(Regularization)의 개념을 이해하고 정규화(Normalization)와 구분합니다.
  • L1 regularization과 L2 regularization의 차이를 설명합니다.
  • 실습을 통하여 Lp norm, Dropout, Batch Normalization에 대해 학습합니다.

목차

  1. 들어가며
  2. Regularization과 Normalization
  3. L1 Regularization
  4. L2 Regularization
  5. Extra : Lp norm
  6. Dropout
  7. Batch Normalization