본문 바로가기

딥러닝과 머신러닝

Activation Functions, Backpropagaion(2024-06-20)

 1. 비선형 활성화 함수 (Activation Funtions)

 
* 신경망의 성능을 향상시키기 위해 사용
* 선형 함수는 입력값과 가중치를 곱한 결과를 그대로 출력하기 때문에 신경망에서 여러개의 레이어를 사용한다면 최종 출력값은 입력 값과 가중치의 선형 조합으로 표현되므로 입력 데이터를 비선형 관게를 표현할 수 없음
* 신경망이 입력 데이터의 비선형 관계를 잘 학습할 수 있도록 하기 위해 비선형 활성화 함수가 필요하다

 

 

 2. 역전파(Backpropagaion)

* 1969년 민스키 교수님 XOR는 "지금의 기술로 풀 수 없다"라는 것을 수학적으로 증명했다
* 1974년 Paul Werbos에 의해 박사 논문에서 해결됨
  * W, b를 이용해 주어진 입력을 가지고 출력을 만들어 낼 수 있음 -> 출력이 우리가 가지고 있는 값과 다른 출력일 경우 W,b를 조절함
* 1986년 Hinton에 의해 위 같은 방법으로 독자적으로 만들어 냄(재발견)

* 역전파는 인공신경망에서 학습을 수행하는 데 사용되는 알고리즘으로, 네트워크의 가중치를 업데이트 하기위해 오차를 출력층에서 입력층으로 전파하여 각 가중치의 기울기를 계산
* 신경망이 주어진 데이터에 대해 예측을 얼마나 잘하는지 평가하고 네트워크의 가중치를 조정하여 예측 성능을 향상시키는 중요한 과정
* 역전파 알고리즘 단계
  1. 순전파 계산
    * 입력 데이터를 각 층을 통과시키면서 네트워크의 출력을 계산한다
    * 출력층에서 손실 함수를 사용하여 출력과 실제 값의 오차를 계산
  2. 오차 계산
    * 출력층에서 시작하여 이전 층으로 이동하며 오차를 계산
    * 출력층의 오차는 손실 함수의 미분으로 구함
  3. 기울기 계산
    * 각 층에서 가중치와 바이어스에 대한 기울기를 계산
    * 기울기는 오차와 활성화 함수의 미분을 사용하여 구함
  4. 가중치 업데이트
    * 경사 하강법을 사용하여 가중치와 바이어스를 업데이트 함