일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 그리디
- C++
- Swift
- 문제풀이
- 백준
- sigmoid
- Stack
- 플로이드와샬
- Algorithm
- BFS
- Blockchain
- 알고리즘
- Greedy
- Node.js
- 부르트포스
- dfs
- dp
- ReLU
- 실버쥐
- ios
- Docker
- 탐색
- 그래프
- 백트래킹
- 프로그래머스
- NeuralNetwork
- 캡스톤정리
- DeepLearning
- 풀이
- mysql
- Today
- Total
목록🚀 Deep Learning (11)
개발아 담하자
Gradient Descent 를 이용해서 Back Prorpagtion 을 구현해보자. Gradient Descent 란 ? https://silver-g-0114.tistory.com/69 [Deep Learning] Gradient Descent 란 ? Gradient Descent (경사 하강법) 이란? 일단 w, b 를 임의로 설정한 일차함수와 데이터 사이의 평균 제곱 오차 (MSE : Mean Squared Error) 를 구한다. 이 평균 제곱 오차를 비용 함수(cost function) 이라고 부른.. silver-g-0114.tistory.com 1. functions.py def sigmoid(x): return 1 / (1 + np.exp(-1)) def softmax(x): e = ..
Gradient Descent (경사 하강법) 이란? 일단 w, b 를 임의로 설정한 일차함수와 데이터 사이의 평균 제곱 오차 (MSE : Mean Squared Error) 를 구한다. 이 평균 제곱 오차를 비용 함수(cost function) 이라고 부른다. 기계의 입장에서는 이 비용 함수가 최소가 되게 하는 w 와 b를 찾아야 한다. 초기 w의 값이 임의로 설정 되었다. (최적의 w값과는 거리가 있다.) 최적의 w값을 찾아가기 위해서 비용함수를 w에 대해서 편미분 해준 것에 학습률 (learning rate) 파라미터를 곱한 것을 초기 설정된 w값에서 빼준다. ( 편미분 : 자신을 제외한 모든 변수를 상수 취급하고 미분함 ) w = w + (-grad) * learning_rate 이 때 learn..
선수 환경 1 : https://silver-g-0114.tistory.com/65 [Deep Learning] Neural Network 의 Forward Pass 구현해보기 (1) 1. 단순 신경망 구조 만들기 (네트워크 세팅) def init_network(): network = {} network['W'] = np.array([ [0.2, 0.5, 0.3], [0.8, 0.6, 0.4] ]) return network network = init_network() print(network) {'W'.. silver-g-0114.tistory.com 선수 환경 2 : http://yann.lecun.com/exdb/mnist/ MNIST handwritten digit database, Yann Le..
1. 단순 신경망 구조 만들기 (네트워크 세팅) def init_network(): network = {} network['W'] = np.array([ [0.2, 0.5, 0.3], [0.8, 0.6, 0.4] ]) return network network = init_network() print(network) {'W': array([[0.2, 0.5, 0.3], [0.8, 0.6, 0.4]])} init_network() 함수로 초기 네트워크 세팅을 해주었다. 2. ForwardPass 만들기 # forward pass 1 def forward1(network, x): W = network['W'] y = np.array([0.0, 0.0, 0.0]) y[0] = W[0][0] * x[0] + W[..