Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 삼성역량테스트
- DP
- dfs문제
- 영상처리
- 코테
- BFS
- 삼성코테
- 포스코 ai 교육
- sort
- 딥러닝
- 삼성역테
- 다이나믹프로그래밍
- 그리디
- 포스코 AI교육
- 알고리즘
- 코딩테스트
- bfs문제
- 자료구조
- 초소형머신러닝
- dfs
- 임베디드 딥러닝
- DP문제
- MCU 딥러닝
- 삼성코딩테스트
- 컴퓨팅사고
- tflite
- TensorFlow Lite
- tinyml
- 코테 문제
- 포스코 교육
Archives
- Today
- Total
목록옵티마이저 gradient descent (1)
코딩뚠뚠
[머신러닝 공부]딥러닝/Optimizer정리
이번 포스팅에서는 딥러닝에 이용되는 Optimizer=최적화알고리즘 을 알아보고자 한다. '어떤 Optimizer를 써야되는지 잘 모르겠다면 Adam을 써라' 라는 말이 있다. 왜 그냥 Adam을 쓰라고 했을까? Optimization 의 큰 틀부터 보자 딥러닝의 학습에서는 최대한 틀리지 않는 방향으로 학습해 나가야 한다. 여기서 얼마나 틀리는지(loss)를 알게 하는 함수가 loss function=손실함수이다. loss function의 최소값을 찾는 것을 학습의 목표로 한다. 여기서 최소값을 찾아가는 것을 최적화=Optimization 이라고 하고 이를 수행하는 알고리즘이 최적화 알고리즘=Optimizer 이다. Optimizer 종류 0. Gradient Descent (경사하강법) 이후의 Opt..
공부/ML&DL
2021. 7. 18. 23:00