코딩뚠뚠

[머신러닝 공부] 7. 비용 함수 2 본문

공부/ML&DL

[머신러닝 공부] 7. 비용 함수 2

로디네로 2021. 1. 12. 23:51
반응형

 

머신러닝 입문자들의 필수코스라고 할 수 있는 앤드류 응 님의 강의를 번역해놓은 아래 브런치를 참고하여 공부하고 핵심내용만 정리해보고자 한다.

 

원문 출처 : brunch.co.kr/@linecard/444

 

앤드류 응의 머신러닝 (2-3): 비용 함수의 이해 1

온라인 강의 플랫폼 코세라의 창립자인 앤드류 응 (Andrew Ng) 교수는 인공지능 업계의 거장입니다. 그가 스탠퍼드 대학에서 머신 러닝 입문자에게 한 강의를 그대로 코세라 온라인 강의 (Coursera.org

brunch.co.kr

 


 

비용함수의 이해

 

이전 포스팅에서의 가설함수를 더 잘 이해하기 위해서 간소화된 가설 함수를 사용한다.

 

간소화 된 가설함수는 아래와 같다.

비용 함수를 구해보자. 목표는 J(θ1)의 최소값이다. 위의 가설함수에 따라 θ0은 0이므로 반드시 원점을 지날것이다.

 

비용함수의 식은 아래와 같았다.

이는 hθ(x^(i))=θ1x^(i) 이기 때문에

이와 같이 표현할 수 있다.

 

학습데이터는 (1,1) (2,2) (3,3)

 

1.

 

θ1에 1을 대입해 보면 0이 도출되게 되고 J(θ1)=0이다.

그러므로 J 의 그래프는 (1,0)에 점을 찍을 수 있을 것이다.

 

2. 

 

θ2에 0.5를 대입해 보면 학습데이터에 따라 0.25 / 1 / 2.25가 도출된다.

이를 J의 식으로 계산해보면 (0.5,0.58)에 점을 찍을 수 있을 것이다.

 

3.

 

같은식으로 θ1에 0을 대입해보면 학습 데이터의 입력에 따라 1/4/9 가 도출된다.

J(0) = 1/(2*3)*14=2.3 이므로 (0,2.3) 에 점을 찍을 수 있을것이다.

 

 

점을 이어보면 J(θ1) 의 함수는 이차함수의 그래프를 갖는다는 것을 알 수 있다.

 

J(θ1)의 최소값은 θ1이 1일때 일 것이고 이로써 θ1=1일 때 데이터에 가장 적합하다는 것을 알 수 있다.

 

또한 이것이 J(θ1)의 최소값이 데이터에 가장 잘 맞는 직선이 이유이고

 

cost function 즉 비용함수를 최소화 한다는 말이 이 말인 것이다.

반응형