IT하는 참새
03. 비용함수(Cost Function)(1) 본문
우선 Linear Regression(선형 회귀) 알고리즘을 통해 공부를 진행하였음
(Supervised Learing, 지도학습)
------------------------------------------------------------------------------
비용함수(Cost Function): 기계학습을 하는데 소요되는 노력을 구하는 함수라고 생각하면 됨
(가설의 정확도를 측정(조절)하는데에 필요한 함수)
그 전에
가설(Hypothesis)식 :
h(x) = Θ0 + Θ1x (Θ는 세타) (y = ax +b 꼴의 일차함수임)
이에따라 가설함수와 비용함수간의 관계는 다음과 같다
그래프 상에서 X는 실제값들이며 파란색 일직선은 가설함수를 통한 예측값이다
지금보면 파란색 일직선(예측값)과 실제값과 오차가 크게 나지 않는다
이게 가장 이상적인 범위라고 생각하여 기계가학습하여 그래프를 그리게 된것인데
그럼 이게 뚝-딱 완성되는 것인가? -> 아니다
이렇게 이상적인 그래프모양을 찾기위해 가설에 비용함수를 적용하는 것이다
가장 이상적인 가설예측그래프를 그리는 방법:
가설(Hypothesis)식 :
h(x) = Θ0 + Θ1x (각 세타들은 parameter라고 정의한다)
비용함수(Cost Function)식:
(이때, m은 총 데이터 셋, i는 데이터들로부터 현재 훈련하고 있는 순번(제곱ㄴ), y는 실제결과값)
(h(x)를 풀어서 Θ0+Θ1x로 써도됨)
이 비용함수에서는 (h(x) - y)의 값이 최소가 되도록 Parameter들인 Θ0, Θ1값을 정하는 것이다
(h(x) - y)값이 최소가 된다는 것 => (예측값 - 실제값)이 최소 => 오차가 적음. 비교적 정확함
즉 비용함수의 목적은 minimize(Θ0, Θ1)이다 -> 여기서 나온 최적의 Θ값들을 가설에 대입함
비용함수는 이렇게 나타낼 수 있다
J(Θ0, Θ1) =
이번에는 비용함수(Cost Function)을 수학적으로만 살펴봤다
다음에는 파라미터 개수에 따른 비용함수 계산법을 살펴보도록 한다
-----------------------------------------------------------------------------------------------------
Coursera 사이트의 인공지능 강의를 토대로 작성됨
'인공지능' 카테고리의 다른 글
06. 기울기하강 알고리즘(Gradient Descent) (0) | 2018.07.14 |
---|---|
05. 비용함수(Cost Function)(3) (2) | 2018.07.14 |
04. 비용함수(Cost Function)(2) (0) | 2018.07.14 |
02. 모델표현(Model Representation) (0) | 2018.07.13 |
01. 인공지능 개론 (0) | 2018.07.06 |