Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- 변수와 입출력
- null # undefined
- 성적 입력받기
- 조건문 큰 수부터 입력받아야하는 이유
- index()
- 딥러닝
- html
- 불리안
- Python
- 정보를 담을 수 있는 그릇
- 리스트와 차이점
- del()
- 합집합
- 파이썬
- 변수
- 변할 수 있는
- 1일차
- 조지 불
- 그룹 # 그룹 해체 # 단축키 #figma #Figma
- 귀도 반 로섬
- false
- input()
- a=1
- Java Script # == # === # difference # 차이
- insert()
- 차집합
- append()
- pop()
- 부스트캠프
- 입출력
Archives
- Today
- Total
I about me
[강의노트 2] Activation Function 본문
gradients 소실 | zero-centered | 계산 비용 | 역전파 학습 | |
|
출력이 0이나 1에 가까워질수록 발생 |
X | 지수함수 쓰기 때문 (But, 큰 문제 x) |
|
|
출력이 -1이나 1에 가까워질수록 발생 |
O | ||
|
음수면 0. 양수이면 입력값 그대로 출력 gradients 소실X ↓ 음 → dead ReLU |
X | 단순 연산이라 계산 효율 뛰어남 |
|
음의 영역에도 0 X (= dead ReLU X) |
X | 단순 연산이라 계산 효율 뛰어남 |
α → 역전파 통해 학습됨 |
|
|
|
|||
음의 영역에도 0 X (= dead ReLU X) 그러나 값이 너무 ↓ 일정 값에 수렴 |
zero-centered 특성에 가까워짐 |
exp() 연산이 필요 | α → 역전파 통해 학습됨 |
Summary
- Default는 ReLU를 쓴다. (하지만 학습률을 잘 따져본다.)
- Leaky ReLU/Maxout/ELU/SELU 등을 시도해본다.
- sigmoid/tanh는 쓰지 마라!
시간이 된다면... 이것까지 완벽하게 공부할 것
더보기
SELU
- SELU(Scaled Exponential Linear Units)은 심층 신경망의 자기 정규화(Self-normalizing)에 더 잘 작동하는 ELU의 확장 버전이다.
- 배치 정규화(Batch Normalization)없이 심층 SELU 신경망을 학습할 수 있다(고 한다).
'AI > Lecture note' 카테고리의 다른 글
[강의노트 5] Bias-Variance Tradeoff (0) | 2024.06.13 |
---|---|
[강의노트 5] Learning rate (1) | 2024.06.13 |
Contents (0) | 2024.03.27 |