Motivation앞에서 어떻게 값을 계산하는지를 알아냈는데, 그러면 그 값을 어찌 활용해야하는 지에 대해서도 생각해볼 필요가 있음딥러닝은 결국 Data들에서 Feature들 간의 특징을 찾아 값을 내는 과정, 즉 이미 주어진 것들에 대해 정답을 비교하여 계산할 필요가 있음 ⇒ 정답과 나의 답을 검증하는 과정이 필요함이 정답과 나의 답의 차이를 Loss(Cost)라고 하고, 이것들을 이용하여 Weight들을 업데이트 하는 과정을 Backpropagation, 그리고 그 업데이트를 어떤 주기로 진행할 것인지가 Batch, Batch size에 따라 업데이트의 종류(Minibatch, SGD, Batch)로 나뉜다.CostNetwork와 Input, 그에 상응하는 Output이 주어지면 우리는 Estimat..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/bzIjh6/btrHoG7XJui/9t3QJqqOolkhFb4xGQC5wK/img.png)
Motivation 이전의 Single Layer Perceptron 같은 경우 XOR Problem와 같은 Non-linear한 데이터들에 대해서는 유연하게 대처하지 못했다.즉, 이렇듯 2개의 결과를 내기 위해서는 한 개의 퍼셉트론이 아닌 여러 개의 퍼셉트론이 필요하다를 의미 ⇒ 그러면, 여러 개의 Input에 대해 여러 개의 node를 타는 것이 있으면 어떨까??Multi Layer Perceptron(MLP)위의 Motivation에도 말했지만, 한 개의 퍼셉트론으로는 많은 문제를 처리하기 힘듦.즉, 여러 개의 퍼셉트론을 활용할 이유가 있고, 이 때문에 Multi-Layer Perceptron이 고안됨MLP는 앞으로 진행되는 Feed-Forward artifical neural network이다.구..
Deep learning overall딥러닝은 1. 어떠한 Input을 받아서 2. 적절한 계산을 한 후 3. output을 내는 이 과정이 Recursive하게 반복되는 모양임을 알 수 있다.이를 약간 수학적으로 표현하면 Input과 Output 모두 Rn, Rm\mathbb{R}^n,~\R^mRn, Rm vector로 바꾸어 함수 f : Rn→Rmf\ :\ \R^n\rightarrow \R^mf : Rn→Rm을 거치게 되고, 이 함수에서 나온 결과를 next layer의 input으로 삼아서 계산을 하는 방식[출처]: https://velog.io/@tobe-honest/다층-퍼셉트론Multi-layer-Perceptron-MLP저 일련의 과정을 거치는 하나의 개체?를 Perceptron(Neur..
- Total
- Today
- Yesterday
- 백준
- LInear SVM
- 수(상)
- 미분
- JOI 2021
- 해석학 Ch5
- PMA
- 백준 17411
- joi
- 17411
- Backprop
- icpc.me/17411
- Deep learning
- Derivate
- Trace trick
- mathematics
- Differentation
- 로피탈
- PMA 연습문제
- 연습문제
- 수학
- Machine Learning
- cs231n assignment1
- PMA Ch5
- 해석학
- Trace tirck
- 해석학 Chapter 5
- 세그먼트 트리
- 선형대수학
- 해석학II
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |