Motivation앞에서 어떻게 값을 계산하는지를 알아냈는데, 그러면 그 값을 어찌 활용해야하는 지에 대해서도 생각해볼 필요가 있음딥러닝은 결국 Data들에서 Feature들 간의 특징을 찾아 값을 내는 과정, 즉 이미 주어진 것들에 대해 정답을 비교하여 계산할 필요가 있음 ⇒ 정답과 나의 답을 검증하는 과정이 필요함이 정답과 나의 답의 차이를 Loss(Cost)라고 하고, 이것들을 이용하여 Weight들을 업데이트 하는 과정을 Backpropagation, 그리고 그 업데이트를 어떤 주기로 진행할 것인지가 Batch, Batch size에 따라 업데이트의 종류(Minibatch, SGD, Batch)로 나뉜다.CostNetwork와 Input, 그에 상응하는 Output이 주어지면 우리는 Estimat..
Motivation 이전의 Single Layer Perceptron 같은 경우 XOR Problem와 같은 Non-linear한 데이터들에 대해서는 유연하게 대처하지 못했다.즉, 이렇듯 2개의 결과를 내기 위해서는 한 개의 퍼셉트론이 아닌 여러 개의 퍼셉트론이 필요하다를 의미 ⇒ 그러면, 여러 개의 Input에 대해 여러 개의 node를 타는 것이 있으면 어떨까??Multi Layer Perceptron(MLP)위의 Motivation에도 말했지만, 한 개의 퍼셉트론으로는 많은 문제를 처리하기 힘듦.즉, 여러 개의 퍼셉트론을 활용할 이유가 있고, 이 때문에 Multi-Layer Perceptron이 고안됨MLP는 앞으로 진행되는 Feed-Forward artifical neural network이다.구..
Deep learning overall딥러닝은 1. 어떠한 Input을 받아서 2. 적절한 계산을 한 후 3. output을 내는 이 과정이 Recursive하게 반복되는 모양임을 알 수 있다.이를 약간 수학적으로 표현하면 Input과 Output 모두 Rn, Rm\mathbb{R}^n,~\R^mRn, Rm vector로 바꾸어 함수 f : Rn→Rmf\ :\ \R^n\rightarrow \R^mf : Rn→Rm을 거치게 되고, 이 함수에서 나온 결과를 next layer의 input으로 삼아서 계산을 하는 방식[출처]: https://velog.io/@tobe-honest/다층-퍼셉트론Multi-layer-Perceptron-MLP저 일련의 과정을 거치는 하나의 개체?를 Perceptron(Neur..
Machine learning algorithm categoriesSupervised learning:답(Label)이 있는 채로 학습하는 것을 의미답이 실수형이면 Regression, 그렇지 않고 Discrete하면 Classfication을 활용하여 학습남아 있는 데이터를 이용하여 Label을 예측하며 정확도를 측정Unsupervised Learning답(Label)이 없는 채로 학습하는 것을 의미비슷한 성질을 가진 것들끼리 모으는(패턴을 파악하는) Clustering의 목적Reinforcement Leanring학습데이터는 필요가 없으며, 환경이라는 것과 상호작용을 하며 학습을 진행현재 상태(State)에서 취할 수 있는 행동(Action)을 취했을 때의 보상(Reward)가 최대가 되는 것을 목적..
- Total
- Today
- Yesterday
- PMA Ch5
- 백준 17411
- Backprop
- 백준
- 해석학II
- 해석학 Chapter 5
- Derivate
- mathematics
- 선형대수학
- 미분
- Trace trick
- Differentation
- Machine Learning
- Trace tirck
- 해석학
- 세그먼트 트리
- 연습문제
- PMA 연습문제
- joi
- JOI 2021
- LInear SVM
- cs231n assignment1
- 로피탈
- 17411
- 수(상)
- icpc.me/17411
- PMA
- Deep learning
- 수학
- 해석학 Ch5
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |