일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 알고리즘
- 삼성역량테스트
- DP문제
- dfs문제
- 자료구조
- bfs문제
- 포스코 ai 교육
- 삼성코테
- 코테
- tflite
- 초소형머신러닝
- MCU 딥러닝
- 포스코 AI교육
- 삼성역테
- 삼성코딩테스트
- 코테 문제
- DP
- 영상처리
- 다이나믹프로그래밍
- 코딩테스트
- 딥러닝
- 임베디드 딥러닝
- sort
- TensorFlow Lite
- 포스코 교육
- 컴퓨팅사고
- dfs
- 그리디
- tinyml
- BFS
- Today
- Total
목록비용함수 (4)
코딩뚠뚠
머신러닝 입문자들의 필수코스라고 할 수 있는 앤드류 응 님의 강의를 번역해놓은 아래 브런치를 참고하여 공부하고 핵심내용만 정리해보고자 한다. 원문 출처 : brunch.co.kr/@linecard/446 앤드류 응의 머신러닝 (2-5) : 경사 하강법 온라인 강의 플랫폼 코세라의 창립자인 앤드류 응 (Andrew Ng) 교수는 인공지능 업계의 거장입니다. 그가 스탠퍼드 대학에서 머신 러닝 입문자에게 한 강의를 그대로 코세라 온라인 강의 (Coursera.org brunch.co.kr 지난 포스팅까지 비용함수 J에 대해 알아봤다. 글 마지막에 비용함수 J를 최소화 하기 위해서는 Optimization을 해야한다고 했다. Cost를 최소화 하는 방법 = Optimization (최적화) => 경사하강법이 그..
머신러닝 입문자들의 필수코스라고 할 수 있는 앤드류 응 님의 강의를 번역해놓은 아래 브런치를 참고하여 공부하고 핵심내용만 정리해보고자 한다. 원문 출처 : brunch.co.kr/@linecard/445 앤드류 응의 머신러닝 (2-3): 비용 함수의 이해 1 온라인 강의 플랫폼 코세라의 창립자인 앤드류 응 (Andrew Ng) 교수는 인공지능 업계의 거장입니다. 그가 스탠퍼드 대학에서 머신 러닝 입문자에게 한 강의를 그대로 코세라 온라인 강의 (Coursera.org brunch.co.kr 비용함수의 역할에 대해 더 깊이 알아보자 이전 포스팅에서의 비용함수는 파라미터를 하나 가지고 있었고 이의 비용함수는 이차함수 모양이였다. 하지만 비용함수가 두개의 파라미터를 가진 J(θ0,θ1)이라면? J(θ0,θ1)..
머신러닝 입문자들의 필수코스라고 할 수 있는 앤드류 응 님의 강의를 번역해놓은 아래 브런치를 참고하여 공부하고 핵심내용만 정리해보고자 한다. 원문 출처 : brunch.co.kr/@linecard/444 앤드류 응의 머신러닝 (2-3): 비용 함수의 이해 1 온라인 강의 플랫폼 코세라의 창립자인 앤드류 응 (Andrew Ng) 교수는 인공지능 업계의 거장입니다. 그가 스탠퍼드 대학에서 머신 러닝 입문자에게 한 강의를 그대로 코세라 온라인 강의 (Coursera.org brunch.co.kr 비용함수의 이해 이전 포스팅에서의 가설함수를 더 잘 이해하기 위해서 간소화된 가설 함수를 사용한다. 간소화 된 가설함수는 아래와 같다. 비용 함수를 구해보자. 목표는 J(θ1)의 최소값이다. 위의 가설함수에 따라 θ0..
머신러닝 입문자들의 필수코스라고 할 수 있는 앤드류 응 님의 강의를 번역해놓은 아래 브런치를 참고하여 공부하고 핵심내용만 정리해보고자 한다. 원문 출처 : brunch.co.kr/@linecard/443 앤드류 응의 머신러닝 강의 (2-2) : 비용 함수 온라인 강의 플랫폼 코세라의 창립자인 앤드류 응 (Andrew Ng) 교수는 인공지능 업계의 거장입니다. 그가 스탠퍼드 대학에서 머신 러닝 입문자에게 한 강의를 그대로 코세라 온라인 강의 (Coursera.org brunch.co.kr 비용함수 : Cost Function 비용함수는 데이터에 가장 잘 맞는 최적의 직선을 찾는다. 위의 사진은 앞강의에서 예측(predict)을 위해 사용했던 선형함수 h(x)이다. (h=Hypothesis=가설) 가설에서 ..