인공지능강의
05. PART 4) 딥러닝의 3 STEP의 기초
65. 효과적으로 사용할 수 있는 기법 - 05. (STEP 2) 배치 정규화와 변형 기법들 - 2
배치 정규화의 한계 :
Mini-batch에 의해 크게 영향을 받는다.
. 배치의 크기가 너무 작으면 잘 동작하지 않는다.
- 메모리의 한계로 인해 RNN이나 크기가 큰 CNN에 적용하기 어렵다
. 배치의 크기가 너무 커도 잘 동작하지 않는다.
- 병렬화 연산 효율이 떨어진다.
가중치 정규화 Weight Normalization
. FC 계층의 w는 '방향'과 '크기'를 같이 학습하지만, 이를 분리하여 g와 v로 나누어 학습
. 학습 시 자유도가 개선되어 최적화가 더 쉽게 이루어짐
. 학습 시 CNN에서 배치 정규화 대비 연산량이 매우 감소 (Feature에 적용 vs. Weight에 적용)
계층 정규화 Layer Normalization
. 배치 정규화와 달리, 각 샘플 내에서 계층에 대해 정규화 수행 ( 모든 데이터가 서로 independent하다는 가정 )
. 배치의 크기에 영향을 받지 않으며, RNN에서도 잘 동작함
66. 효과적으로 사용할 수 있는 기법 - 06. (STEP 2) 배치 정규화와 변형 기법들 - 3
자가 정규화 신경망 Self-Normalizing Neural Network
SNN은 바닐라 CNN에 약간의 변화를 줌으로써, 스스로 정규화하는 계층을 형성한다.
BatchNorm 대비 훨씬 더 안정적이면서도 좋은 성능을 보인다.
SELU Scaled Exponential Linear Unit
SELU는 ReLU와 달리, 음수 값을 Exponential하게 활성화 하는 특징이 있다. 𝜆와 𝛼의 값에 따라 특성이 결정된다.
자가 정규화를 위한 이 값은 𝜆 = 1.0507, 𝛼 = 1.67326으로 알려져 있다.
𝛼-DropOut
𝛼DropOut 𝑥 = 𝑎( 𝑥𝑑 + 𝛼 ′ (1 − 𝑑 )+ 𝑏
DropOut이 ReLU에 잘 동작하는 것을 반영하여, SELU에 적합하도록 변형한 버전.
복잡한 Derivation을 통해 𝛼′값을 결정해 두었으며, dropout-rate는 5~10%로 비교적 작다.
딥러닝/인공지능 올인원 패키지 Online. | 패스트캠퍼스
Tensorflow2.0부터 Pytorch까지 딥러닝 대표 프레임워크를 정복하기. 생활 깊숙이 침투한 인공지능, 그 중심엔 딥러닝이 있습니다. 가장 강력한 머신러닝의 툴로서 주목받는 딥러닝은 생각보다 어려��
www.fastcampus.co.kr
'딥러닝' 카테고리의 다른 글
[패스트캠퍼스 수강 후기] 인공지능강의 100% 환급 챌린지 40회차 미션 (0) | 2020.08.07 |
---|---|
[패스트캠퍼스 수강 후기] 인공지능강의 100% 환급 챌린지 39회차 미션 (0) | 2020.08.06 |
[패스트캠퍼스 수강 후기] 인공지능강의 100% 환급 챌린지 37회차 미션 (0) | 2020.08.04 |
[패스트캠퍼스 수강 후기] 인공지능강의 100% 환급 챌린지 36회차 미션 (0) | 2020.08.03 |
[패스트캠퍼스 수강 후기] 인공지능강의 100% 환급 챌린지 35회차 미션 (0) | 2020.08.02 |