일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- mysql
- Node.js
- Algorithm
- BFS
- 부르트포스
- 문제풀이
- dfs
- 알고리즘
- 탐색
- DeepLearning
- NeuralNetwork
- Blockchain
- 플로이드와샬
- Stack
- C++
- Greedy
- sigmoid
- 백준
- dp
- 풀이
- 실버쥐
- 캡스톤정리
- 그리디
- Swift
- 백트래킹
- 프로그래머스
- 그래프
- ReLU
- ios
- Docker
- Today
- Total
목록mse (2)
개발아 담하자
Gradient Descent (경사 하강법) 이란? 일단 w, b 를 임의로 설정한 일차함수와 데이터 사이의 평균 제곱 오차 (MSE : Mean Squared Error) 를 구한다. 이 평균 제곱 오차를 비용 함수(cost function) 이라고 부른다. 기계의 입장에서는 이 비용 함수가 최소가 되게 하는 w 와 b를 찾아야 한다. 초기 w의 값이 임의로 설정 되었다. (최적의 w값과는 거리가 있다.) 최적의 w값을 찾아가기 위해서 비용함수를 w에 대해서 편미분 해준 것에 학습률 (learning rate) 파라미터를 곱한 것을 초기 설정된 w값에서 빼준다. ( 편미분 : 자신을 제외한 모든 변수를 상수 취급하고 미분함 ) w = w + (-grad) * learning_rate 이 때 learn..
1. 단순 신경망 구조 만들기 (네트워크 세팅) def init_network(): network = {} network['W'] = np.array([ [0.2, 0.5, 0.3], [0.8, 0.6, 0.4] ]) return network network = init_network() print(network) {'W': array([[0.2, 0.5, 0.3], [0.8, 0.6, 0.4]])} init_network() 함수로 초기 네트워크 세팅을 해주었다. 2. ForwardPass 만들기 # forward pass 1 def forward1(network, x): W = network['W'] y = np.array([0.0, 0.0, 0.0]) y[0] = W[0][0] * x[0] + W[..