본문 바로가기

개발아 담하자

검색하기
개발아 담하자
프로필사진 choidam

  • 분류 전체보기 (147)
    • 📱 iOS (35)
    • 🚀 Deep Learning (11)
    • 👩‍💻 알고리즘 풀이 (81)
      • 백준 (59)
      • 프로그래머스 (22)
      • SWEA (0)
    • 💸 BlockChain (3)
    • 🌟 자료구조+알고리즘 (10)
    • 🛠 web (4)
    • 🤖 DataBase Project (3)
    • 👶 회고 (0)
Guestbook
Notice
Recent Posts
Recent Comments
Link
«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
Tags
  • Node.js
  • Docker
  • 풀이
  • DeepLearning
  • 부르트포스
  • 그래프
  • 그리디
  • 캡스톤정리
  • NeuralNetwork
  • C++
  • ReLU
  • Blockchain
  • 프로그래머스
  • Swift
  • 알고리즘
  • 플로이드와샬
  • 탐색
  • Algorithm
  • ios
  • 백준
  • dp
  • 실버쥐
  • 백트래킹
  • mysql
  • sigmoid
  • dfs
  • BFS
  • Stack
  • 문제풀이
  • Greedy
more
Archives
Today
Total
관리 메뉴
  • 글쓰기
  • 방명록
  • RSS
  • 관리

목록GradientDescent (1)

개발아 담하자

[Deep Learning] Back Propagation 구현하기

Gradient Descent 를 이용해서 Back Prorpagtion 을 구현해보자. Gradient Descent 란 ? https://silver-g-0114.tistory.com/69 [Deep Learning] Gradient Descent 란 ? Gradient Descent (경사 하강법) 이란? 일단 w, b 를 임의로 설정한 일차함수와 데이터 사이의 평균 제곱 오차 (MSE : Mean Squared Error) 를 구한다. 이 평균 제곱 오차를 비용 함수(cost function) 이라고 부른.. silver-g-0114.tistory.com 1. functions.py def sigmoid(x): return 1 / (1 + np.exp(-1)) def softmax(x): e = ..

🚀 Deep Learning 2020. 5. 3. 16:06
이전 Prev 1 Next 다음

Blog is powered by kakao / Designed by Tistory

티스토리툴바