Tags
- ai_엔지니어링
- 우리fis아카데미
- 시청
- 해리포터
- 우리에프아이에스
- 대만
- 전주
- 사진
- SQL
- 도쿄
- 여행
- 카페
- 우리fisa
- Python
- 오사카
- fdr-x3000
- 건담
- 대만여행
- k-디지털트레이닝
- 17-55
- CS231n
- 맛집
- 글로벌소프트웨어캠퍼스
- 수요미식회
- 제주도
- 축복렌즈
- 650d
- 전시
- 군산
- 축복이
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- Today
- Total
Recent Posts
300x250
목록NeuralNetwork (1)
브렌쏭의 Veritas_Garage

경사하강, Gradient Descent Calculation SpeedProximityLevelNumerical gradientslow 😢approximate 😢Easy to Write 🤩Analytic gradientF A S T 🤩Exact 🤩error-prone 😢 So, Analytic gradient is better 어쨌든 확률 + 표본을 통한 해석적 경사하강법을 이용하는 것이 효율적이다.함수가 복잡해지면 복잡해질수록 각 표본이 기하급수적으로 늘어나므로 훨씬 이득이라고 할수있으며, 최신 방식을 일일히 경사하강법으로 구하고 있다면 연산량이 너무 많아진다. Back Propagation : 역전파함수에 대한 computational graph를 제작한다각 local gradient를..
[Project_하다]/[Project_공부]
2024. 7. 1. 14:57