Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- 조건문 큰 수부터 입력받아야하는 이유
- 1일차
- html
- 변수와 입출력
- append()
- Java Script # == # === # difference # 차이
- 변할 수 있는
- del()
- null # undefined
- 딥러닝
- index()
- 리스트와 차이점
- 조지 불
- pop()
- 그룹 # 그룹 해체 # 단축키 #figma #Figma
- 부스트캠프
- 합집합
- 불리안
- Python
- a=1
- 변수
- insert()
- 차집합
- 입출력
- false
- 성적 입력받기
- 파이썬
- input()
- 정보를 담을 수 있는 그릇
- 귀도 반 로섬
Archives
- Today
- Total
I about me
Contents 본문
강노 2. Neural Networks (NN)
- Traditional ML Approaches // 전통적인 기계 학습 접근법 소개
- Introduction to Neural Networks // 신경망 소개
- Activation Functions (Nonlinearity) // 활성화 함수 (비선형성)
- Sigmoid, ReLU,Leaky ReLU, ELU, SELU, and Maxou
강노 3. Backpropagation
// 인공 신경망에서 사용되는 학습 알고리즘 중 하나로,
출력 값과 실제 값 사이의 오차를 계산하고 이 오차를 최소화하기 위해 네트워크의 가중치를 조정하는 과정
- Gradient Descent // 함수의 기울기을 활용하여 최적화 문제를 해결하는 방법 중 하나
- Computational Graphs & Backpropagation
강노 4. Training Algorithm for Neural Networks // NN의 훈련 알고리즘
- Data Preprocessing // 데이터 전처리
- Weight Initialization // 가중치 초기화
- Batch Normalization // 배치 정규화
- Learning Rate Scheduling // 학습률 조정
- Bias–Variance Tradeoff // 편향-분산 균형
- Regularization // 정규화
- Hyperparamter Tuning // 하이퍼파라미터 튜닝
- Transfer Learning // 전이 학습
강노 6. Convolution Operation
https://blog.naver.com/vi_football/221894236688
[CS231n] Lecture 5 정리 - Convolutional Neural Networks
[CS231n] Lecture 5 - Convolutional Neural Networks Stanford University의 2017년판 CS231n ...
blog.naver.com
'AI > Lecture note' 카테고리의 다른 글
[강의노트 5] Bias-Variance Tradeoff (0) | 2024.06.13 |
---|---|
[강의노트 2] Activation Function (0) | 2024.06.13 |
[강의노트 5] Learning rate (1) | 2024.06.13 |