Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 그리디
- 딥러닝
- MCU 딥러닝
- 코테 문제
- sort
- 다이나믹프로그래밍
- DP문제
- dfs문제
- TensorFlow Lite
- tflite
- DP
- BFS
- bfs문제
- 삼성역테
- 포스코 교육
- 삼성코테
- dfs
- 자료구조
- 임베디드 딥러닝
- 포스코 AI교육
- 알고리즘
- 영상처리
- 초소형머신러닝
- 컴퓨팅사고
- 삼성코딩테스트
- tinyml
- 코테
- 코딩테스트
- 삼성역량테스트
- 포스코 ai 교육
Archives
- Today
- Total
코딩뚠뚠
[머신러닝 공부] 8. 비용 함수 3 본문
반응형
머신러닝 입문자들의 필수코스라고 할 수 있는 앤드류 응 님의 강의를 번역해놓은 아래 브런치를 참고하여 공부하고 핵심내용만 정리해보고자 한다.
원문 출처 : brunch.co.kr/@linecard/445
비용함수의 역할에 대해 더 깊이 알아보자
이전 포스팅에서의 비용함수는 파라미터를 하나 가지고 있었고 이의 비용함수는 이차함수 모양이였다.
하지만 비용함수가 두개의 파라미터를 가진 J(θ0,θ1)이라면?
J(θ0,θ1)은 3D입체 모양의 그래프를 그릴 것이다.
가로 = θ0 / 세로 = θ1 / 높이 = J(θ0,θ1)
이와 같은 형상을 띄게 될 것이다.
높이가 최소인 점이 즉 비용함수가 최소인 점이 될 것이고 그 점을 향해 가는 것이 목표이다.
즉 비용함수는 최소값을 찾아가는 과정이라고 정의할 수 있다.
또한, 비용이 적은 부분으로 찾아들어가는 것이 최적화 Optimization 이라고 한다.
반응형
'공부 > ML&DL' 카테고리의 다른 글
[머신러닝 공부] 10. 경사하강법 2 (0) | 2021.02.06 |
---|---|
[머신러닝 공부] 9. 경사 하강법 1 (0) | 2021.01.20 |
[머신러닝 공부] 7. 비용 함수 2 (0) | 2021.01.12 |
[머신러닝 공부] 6. 비용 함수 1 (0) | 2021.01.12 |
[머신러닝 공부] 5. 가설의 표현 (0) | 2021.01.05 |