티스토리 뷰

Cybenko Theorem

  • Neural Network의 한계란 없다를 수학적으로 보여주는 정리
  • 아래에서 사용하는 모든 함수는 sigmoid function을 기반으로 함을 기억하자.
  • 구간 [0, 1]n\left[0,~1\right]^n에서 countinuous한 임의의 함수 FF와 양수 ε\varepsilon에 대해 항상 F(x)F(x)와의 차이가 ε\varepsilon보다 작은 neural network을 만들 수 있다.
  • 간단하게 말하면, 아무 연속함수를 들고와도 단 하나의 Hidden Layer만 있으면 얼마든지 근사할 수 있다라는 것이다.
  • ε\varepsilon이 굉장히 작으면 어떻게 그게 될지 의문이 들겠지만, 적분과 비슷한 테크닉을 기반으로 Hidden Layer의 Node수를 늘리면 그것이 가능하다! 이제 살펴보자.

Step function

  • 우리가 적분을 증명할 때를 생각해보면 중점에 대해(Or 양 끝점) 직사각형을 만들고, 그 간격을 굉장히 좁게 하여 오차를 줄이는 방법이다.
  • 자세한 리만 적분해서는 Analysis에 수강하니 넘어가도록 하고, Cybenko Theorem도 동일하게 이 기법을 활용한다.
  • 그러기 위해서는 일정 구간에서만 값을 가지는 함수가 필요한데, 이 함수를 만들기 위해 Step function이란 것을 생각해보자.
  • Step function은 특정 지점을 기준으로 값이 일정한 값으로 바뀌는 함수를 의미한다. 계단함수라고도 한다.
[출처] https://commons.wikimedia.org/wiki/File:Step_function.svg
  • 그러면, 이러한 Step function을 두 개 섞으면 어떻게 될까? 값은 같은데 1) 어디에서 step이 걸리는지 2) 방향이 어떻게 되는지에 따라 값이 0이 될수도, 이외의 값이 될 수도 있다.
  • 이제 우리의 목표는 sigmoid function을 step function으로 근사하는 방법이다. 이것만 근사할 수 있으면 step function과 weight들을 적절하게 잘 취해줌으로써 일정 부분에서만 값을 가지는 것으로 함수로 바꿀 수 있다.

Approximation sigmoid function to step function

  • σ(z)=11+ez\sigma(z)=\dfrac{1}{1+e^{-z}}에서 σ(az+b)=11+eazb=11+ea(z+ba)\sigma(az+b)=\dfrac{1}{1+e^{-az-b}}=\dfrac{1}{1+e^{-a\left(z+\dfrac{b}{a}\right)}}로 쓸 수 있고, 이는 시그모이드 함수를 ba-\dfrac{b}{a}만큼 평행이동하고 aa만큼 scaling을 한 것이라고 볼 수 있다.
  • 즉, 우리가 0.40.4 지점에서 step function을 만들고 싶으면 ba=0.4-\dfrac{b}{a}=0.4 로 설정하고, Step function이므로 scaling을 무한대, aa\rightarrow \infty로 만들면 Step function과 아주 가깝게 된다(근사)
[출처] http://neuralnetworksanddeeplearning.com/chap4.html

이를 이용하여 Hidden node수를 늘리면 approximation을 할 수 있다.

[출처] https://medium.com/analytics-vidhya/neural-networks-and-the-universal-approximation-theorem-e5c387982eed


Uploaded by N2T

'개인 공부' 카테고리의 다른 글

8. Weight Initialization  (0) 2022.07.16
7. Softmax & Loss (1)  (0) 2022.07.16
5. Backpropagation  (0) 2022.07.16
4. Loss & Stochastic gradient descent  (0) 2022.07.16
3. Multilayer perceptron & Forward Pass  (0) 2022.07.16
댓글
최근에 올라온 글
공지사항
Total
Today
Yesterday
최근에 달린 댓글
링크
«   2024/05   »
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31
글 보관함