일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 임베디드 딥러닝
- tflite
- 초소형머신러닝
- bfs문제
- 그리디
- DP
- DP문제
- sort
- 포스코 AI교육
- 삼성역테
- BFS
- 삼성코테
- 포스코 교육
- MCU 딥러닝
- 자료구조
- 컴퓨팅사고
- 딥러닝
- 코딩테스트
- 삼성역량테스트
- 포스코 ai 교육
- tinyml
- 다이나믹프로그래밍
- 알고리즘
- 영상처리
- dfs문제
- TensorFlow Lite
- dfs
- 코테
- 코테 문제
- 삼성코딩테스트
- Today
- Total
코딩뚠뚠
[머신러닝 공부] 7. 비용 함수 2 본문
머신러닝 입문자들의 필수코스라고 할 수 있는 앤드류 응 님의 강의를 번역해놓은 아래 브런치를 참고하여 공부하고 핵심내용만 정리해보고자 한다.
원문 출처 : brunch.co.kr/@linecard/444
비용함수의 이해
이전 포스팅에서의 가설함수를 더 잘 이해하기 위해서 간소화된 가설 함수를 사용한다.
간소화 된 가설함수는 아래와 같다.
비용 함수를 구해보자. 목표는 J(θ1)의 최소값이다. 위의 가설함수에 따라 θ0은 0이므로 반드시 원점을 지날것이다.
비용함수의 식은 아래와 같았다.
이는 hθ(x^(i))=θ1x^(i) 이기 때문에
이와 같이 표현할 수 있다.
학습데이터는 (1,1) (2,2) (3,3)
1.
θ1에 1을 대입해 보면 0이 도출되게 되고 J(θ1)=0이다.
그러므로 J 의 그래프는 (1,0)에 점을 찍을 수 있을 것이다.
2.
θ2에 0.5를 대입해 보면 학습데이터에 따라 0.25 / 1 / 2.25가 도출된다.
이를 J의 식으로 계산해보면 (0.5,0.58)에 점을 찍을 수 있을 것이다.
3.
같은식으로 θ1에 0을 대입해보면 학습 데이터의 입력에 따라 1/4/9 가 도출된다.
J(0) = 1/(2*3)*14=2.3 이므로 (0,2.3) 에 점을 찍을 수 있을것이다.
점을 이어보면 J(θ1) 의 함수는 이차함수의 그래프를 갖는다는 것을 알 수 있다.
J(θ1)의 최소값은 θ1이 1일때 일 것이고 이로써 θ1=1일 때 데이터에 가장 적합하다는 것을 알 수 있다.
또한 이것이 J(θ1)의 최소값이 데이터에 가장 잘 맞는 직선이 이유이고
cost function 즉 비용함수를 최소화 한다는 말이 이 말인 것이다.
'공부 > ML&DL' 카테고리의 다른 글
[머신러닝 공부] 9. 경사 하강법 1 (0) | 2021.01.20 |
---|---|
[머신러닝 공부] 8. 비용 함수 3 (0) | 2021.01.19 |
[머신러닝 공부] 6. 비용 함수 1 (0) | 2021.01.12 |
[머신러닝 공부] 5. 가설의 표현 (0) | 2021.01.05 |
[머신러닝 공부] 4. 비지도학습 (0) | 2021.01.05 |