IT하는 참새

04. 비용함수(Cost Function)(2) 본문

인공지능

04. 비용함수(Cost Function)(2)

pshot 2018. 7. 14. 01:26

우선 Linear Regression(선형 회귀)알고리즘을 통해 공부를 진행했음

(Supervised Learning, 지도 학습)

-----------------------------------------------------------------------------


시작에 앞서 기계학습의 전체적인 과정




비용함수: 비용함수의 값이 최소화되게하는 Θ값들을 찾는 함수


(파라미터 한개만 고려할 때. Θ0 = 0 일 때)


h(x) = Θ0 + Θ1x (가설식) (Θ0 = 0) 


h(x) = 0 + Θ1x (가설식)    (이 때, x는 학습을 위한 input값)


그렇다면 이와같이 나타낼 수 있다


그래프가 (0, 0)을 지나는 일차직선으로 구성된다



다음은 실제 데이터 셋을 좌표로 나타낸 것이다 (X 표시)



이 때 Θ1 = 1 이라면 h(x) = 0 + x ( y = x) 꼴이 된다


그럼 가설식을 통한 그래프는 비용함수를 통해 결정되므로 


이와같이 비용함수의 값은 0이 나오고 이 때 Θ1 = 1 이다 


그럼 가설식에 따른 그래프는 다음과 같다




왼쪽은 가설식을 통한 그래프

오른쪽은 Θ1에 따른 비용함수 그래프


왼쪽을 보니 예측과 실제값이 정확히 일치하고 있다


오른쪽을 보니 Θ1 = 1일 때 J(Θ1) = 0 이다




여기서 Θ1 = 0.5라고 정의한다면 어떻게 될까? 일단 기울기가 변할 것이다

또한 비용함수는 어떻게 바뀔까?


h(x) = 0 + 0.5x



왼쪽, 오른쪽모두 이렇게 바뀐다.


왼쪽을 보니 예측과 실제값의 오차가 커진것을 알 수있다

오른쪽을 보니 J(Θ1) - 비용함수 의 값이 증가한것을 알 수 있다


여기서 얻을 수 있는 핵심은 다시 

비용함수의 값을 최소화 시켜야 가설로부터 이상적인 그래프가 나온다  일 것이다


오른쪽을 보면 J(Θ1)이 증가했다

최소화된것이 0이였고 0일때는 예측과 실제값이 잘 맞았지만 

비용함수가 증가하니 오차가 발생하였다


Θ1의 값을 다르게하여 다른 경우를 살펴본다면 다음과 같다




결론은 비용함수J(Θ1)이 ( 최소일 때 = 0 ) 이 때 가장 이상적인 그래프가 나온다

 

만약 왼쪽그래프에서 x(input)이 땅크기(size)였고 y(output)이 집값이였다면 


Θ1 = 1일때 비용이 가장 최소이며 가설이 가장 이상적이기에 이걸 기계가 학습하면 된다


이번에는 Θ1만 다뤄봤지만 다음에는 Θ0과 Θ1 모두 다뤄보겠다


-----------------------------------------------------------------------------------------------------


Coursera 사이트의 인공지능 강의를 토대로 작성됨