일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- tinyml
- 포스코 AI교육
- 포스코 ai 교육
- DP문제
- 컴퓨팅사고
- 삼성코테
- 임베디드 딥러닝
- dfs
- 삼성역테
- 포스코 교육
- 삼성역량테스트
- 다이나믹프로그래밍
- 코딩테스트
- 딥러닝
- BFS
- 그리디
- 삼성코딩테스트
- 코테 문제
- 영상처리
- bfs문제
- dfs문제
- tflite
- TensorFlow Lite
- MCU 딥러닝
- 자료구조
- sort
- 알고리즘
- 초소형머신러닝
- DP
- 코테
- Today
- Total
코딩뚠뚠
[머신러닝 공부] 11. 선형회귀와 경사하강법 본문
머신러닝 입문자들의 필수코스라고 할 수 있는 앤드류 응 님의 강의를 번역해놓은 아래 브런치를 참고하여 공부하고 핵심내용만 정리해보고자 한다.
원문 출처 : brunch.co.kr/@linecard/448
이전 챕터에서 Optimization 中 Gradient descent algorithm(경사하강법) 과, Linear Regression model(선형회귀모델) 을배웠다. 이번에는 선형회귀와 경사하강법을 조합해서 데이터에 적합한 직선을 그릴 수 있도록 한다.
경사하강 알고리즘 :
선형회기모델 수식 (선형가설, 제곱오차비용함수) :
가설함수 h(x)=θ0 + θ1*x 일 때 θ값들이 변할때마다 변하는 비용함수 J( θ0, θ1) 가 존재한다.
비용함수 J와 경사하강 알고리즘 을 조합해서 하나의 정의로 나타낼 수 있다.
이는 j=0 인 경우와 j=1 인 경우로 나누어지므로 미분항을 따로 떼어내어 두개의 식으로 나타내야 한다.
ex)
가설함수가 h(x) = θ1 * x 로 존재 할 때 비용함수 J(θ1)가 있다. 이에 비용함수와 경사하강알고리즘을 합쳐서 수학적 정의로 표현해보면 다음과 같다.
지금까지 배웠던 Gradient Descent 는 다른말로 Batch Gradient Descent 라고도 부른다.
저번 포스팅에서 언급한 SGD, Mini Batch .. 등의 여러 갈래가 있지만 기본적인 Gradient Descent algorithm = Batch Gradient Descent algorithm 인 것이다.
Batch Gradient Descent 의 의미는 모든 학습데이터들을 계산한다는 뜻이다.
'공부 > ML&DL' 카테고리의 다른 글
[머신러닝 공부] 행렬과 벡터 연산 (0) | 2021.02.12 |
---|---|
[머신러닝 공부] 행렬과 벡터 (0) | 2021.02.12 |
[머신러닝 공부] 10. 경사하강법 2 (0) | 2021.02.06 |
[머신러닝 공부] 9. 경사 하강법 1 (0) | 2021.01.20 |
[머신러닝 공부] 8. 비용 함수 3 (0) | 2021.01.19 |