본문 바로가기

AI

[딥러닝] 딥러닝 기초

1. 퍼셉트론(Perceptron)

  • 초기 형태의 인공 신경망
  • 다수의 입력으로부터 하나의 결과를 내보내는 알고리즘

퍼셉트론

  • x는 입력값, w는 가중치, y는 출력값
  • 각각의 입력값은 각각의 가중치를 가지며, 가중치가 클수록 입력값의 중요도 높아짐
  • 각 입력값이 가중치와 곱해져서 인공 뉴런에 보내지고, 입력값*가중치의 전체 합이 임계치(threshold)를 넘으면 종착지에 있는 인공 뉴런은 출력 신호로서 1 출력, 아니면 0 출력 => 계단 함수 Step Function

세타는 임계치

  • 임계치를 좌변으로 넘겨 b(편향)으로 사용할 수 있음
  • 편향 b도 퍼셉트론의 입력으로 사용됨, b도 딥 러닝이 최적화해야 할 변수 중 하나

2. 단층 퍼셉트론 (Single-Layer Perceptron)

  • 입력층과 출력층만 있는 퍼셉트론
  • 직선 하나로 두 영역을 나눌 수 있는 문제에 대해서만 구현 가능

3. 다층 퍼셉트론 (MultiLayer Perceptron, MLP)

  • 입력층, 출력층 사이 은닉층(hidden layer) 추가
  • 은닉층이 2개 이상인 신경망을 심층 신경망(Deep Neural Network, DNN) 이라고 함

- 기계가 적절한 가중치를 스스로 찾아내도록 자동화시키는 것이 머신 러닝에서의 training, learning 단계

- 학습을 시키는 인공 신경망이 심층 신경망일 경우 딥 러닝이라고 함

 

4. Forward Propagation

  • 입력층에서 출력층 방향으로 연산을 진행하는 과정 즉, 주어진 입력이 입력층으로 들어가 은닉층을 지나 출력층에서 예측값을 얻는 과정

5. 손실 함수, Loss function

  • 실제값과 예측값의 차이를 수치화해주는 함수
  • 오차와 손실 함수의 값은 비례
  • 회귀에서는 평균 제곱 오차, 분류 문제에서는 크로스 엔트로피를 주로 손실 함수로 사용
  • 손실 함수의 값을 최소화하는 가중치 w, 편향 b를 찾는 것이 딥 러닝의 학습 과정
  • MSE(Mean Squred Error): 평균 제곱 오차, 선형 회귀 학습 시 사용
  • 이진 크로스 엔트로피(Binary Cross-Entropy), ...
  • 손실 함수의 값을 줄여나가면서 학습하는 방법은 어떤 옵티마이저를 사용하느냐에 따라 달라짐

  • 배치(Batch): 가중치 등 매개변수의 값을 조정하기 위해 사용하는 데이터의 양
  • 전체 데이터에 대한 한 번의 훈련 횟수(한 번의 순전파와 역전파가 끝난 상태)를 1 epoch라고 함

6. 역전파(Back Propagation)

  • 출력층에서 입력층 방향으로 계산하면서 가중치 업데이트