I about me

Contents 본문

AI/Lecture note

Contents

ssungni 2024. 3. 27. 01:15

강노 2. Neural Networks (NN)

  • Traditional ML Approaches // 전통적인 기계 학습 접근법 소개
  • Introduction to Neural Networks // 신경망 소개
  • Activation Functions (Nonlinearity) // 활성화 함수 (비선형성)
    • Sigmoid, ReLU,Leaky ReLU, ELU, SELU, and Maxou

 

강노 3. Backpropagation

// 인공 신경망에서 사용되는 학습 알고리즘 중 하나로,

출력 값과 실제 값 사이의 오차를 계산하고 이 오차를 최소화하기 위해 네트워크의 가중치를 조정하는 과정

  • Gradient Descent // 함수의 기울기을 활용하여 최적화 문제를 해결하는 방법 중 하나
  • Computational Graphs & Backpropagation

 

강노 4. Training Algorithm for Neural Networks // NN의 훈련 알고리즘

  • Data Preprocessing // 데이터 전처리
  • Weight Initialization // 가중치 초기화
  • Batch Normalization // 배치 정규화

  • Learning Rate Scheduling // 학습률 조정
  • Bias–Variance Tradeoff // 편향-분산 균형
  • Regularization  // 정규화
  • Hyperparamter Tuning // 하이퍼파라미터 튜닝
  • Transfer Learning // 전이 학습

 

강노 6. Convolution Operation

https://blog.naver.com/vi_football/221894236688

 

[CS231n] Lecture 5 정리 - Convolutional Neural Networks

[CS231n] Lecture 5 - Convolutional Neural Networks Stanford University의 2017년판 CS231n ...

blog.naver.com

'AI > Lecture note' 카테고리의 다른 글

[강의노트 5] Bias-Variance Tradeoff  (0) 2024.06.13
[강의노트 2] Activation Function  (0) 2024.06.13
[강의노트 5] Learning rate  (1) 2024.06.13