Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- 부스트캠프
- 1일차
- 딥러닝
- 합집합
- 입출력
- 변수
- Python
- pop()
- input()
- 조지 불
- 불리안
- append()
- index()
- false
- 성적 입력받기
- 귀도 반 로섬
- 차집합
- null # undefined
- 정보를 담을 수 있는 그릇
- insert()
- del()
- html
- Java Script # == # === # difference # 차이
- 변수와 입출력
- a=1
- 그룹 # 그룹 해체 # 단축키 #figma #Figma
- 파이썬
- 조건문 큰 수부터 입력받아야하는 이유
- 리스트와 차이점
- 변할 수 있는
Archives
- Today
- Total
I about me
Contents 본문
강노 2. Neural Networks (NN)
- Traditional ML Approaches // 전통적인 기계 학습 접근법 소개
- Introduction to Neural Networks // 신경망 소개
- Activation Functions (Nonlinearity) // 활성화 함수 (비선형성)
- Sigmoid, ReLU,Leaky ReLU, ELU, SELU, and Maxou
강노 3. Backpropagation
// 인공 신경망에서 사용되는 학습 알고리즘 중 하나로,
출력 값과 실제 값 사이의 오차를 계산하고 이 오차를 최소화하기 위해 네트워크의 가중치를 조정하는 과정
- Gradient Descent // 함수의 기울기을 활용하여 최적화 문제를 해결하는 방법 중 하나
- Computational Graphs & Backpropagation
강노 4. Training Algorithm for Neural Networks // NN의 훈련 알고리즘
- Data Preprocessing // 데이터 전처리
- Weight Initialization // 가중치 초기화
- Batch Normalization // 배치 정규화
- Learning Rate Scheduling // 학습률 조정
- Bias–Variance Tradeoff // 편향-분산 균형
- Regularization // 정규화
- Hyperparamter Tuning // 하이퍼파라미터 튜닝
- Transfer Learning // 전이 학습
강노 6. Convolution Operation
'AI > Lecture note' 카테고리의 다른 글
[강의노트 5] Bias-Variance Tradeoff (0) | 2024.06.13 |
---|---|
[강의노트 2] Activation Function (0) | 2024.06.13 |
[강의노트 5] Learning rate (1) | 2024.06.13 |