IT하는 참새
04. 비용함수(Cost Function)(2) 본문
우선 Linear Regression(선형 회귀)알고리즘을 통해 공부를 진행했음
(Supervised Learning, 지도 학습)
-----------------------------------------------------------------------------
시작에 앞서 기계학습의 전체적인 과정
비용함수: 비용함수의 값이 최소화되게하는 Θ값들을 찾는 함수
(파라미터 한개만 고려할 때. Θ0 = 0 일 때)
h(x) = Θ0 + Θ1x (가설식) (Θ0 = 0)
h(x) = 0 + Θ1x (가설식) (이 때, x는 학습을 위한 input값)
그렇다면 이와같이 나타낼 수 있다
그래프가 (0, 0)을 지나는 일차직선으로 구성된다
다음은 실제 데이터 셋을 좌표로 나타낸 것이다 (X 표시)
이 때 Θ1 = 1 이라면 h(x) = 0 + x ( y = x) 꼴이 된다
그럼 가설식을 통한 그래프는 비용함수를 통해 결정되므로
이와같이 비용함수의 값은 0이 나오고 이 때 Θ1 = 1 이다
그럼 가설식에 따른 그래프는 다음과 같다
왼쪽은 가설식을 통한 그래프
오른쪽은 Θ1에 따른 비용함수 그래프
왼쪽을 보니 예측과 실제값이 정확히 일치하고 있다
오른쪽을 보니 Θ1 = 1일 때 J(Θ1) = 0 이다
여기서 Θ1 = 0.5라고 정의한다면 어떻게 될까? 일단 기울기가 변할 것이다
또한 비용함수는 어떻게 바뀔까?
h(x) = 0 + 0.5x
왼쪽, 오른쪽모두 이렇게 바뀐다.
왼쪽을 보니 예측과 실제값의 오차가 커진것을 알 수있다
오른쪽을 보니 J(Θ1) - 비용함수 의 값이 증가한것을 알 수 있다
여기서 얻을 수 있는 핵심은 다시
비용함수의 값을 최소화 시켜야 가설로부터 이상적인 그래프가 나온다 일 것이다
오른쪽을 보면 J(Θ1)이 증가했다
최소화된것이 0이였고 0일때는 예측과 실제값이 잘 맞았지만
비용함수가 증가하니 오차가 발생하였다
Θ1의 값을 다르게하여 다른 경우를 살펴본다면 다음과 같다
결론은 비용함수J(Θ1)이 ( 최소일 때 = 0 ) 이 때 가장 이상적인 그래프가 나온다
만약 왼쪽그래프에서 x(input)이 땅크기(size)였고 y(output)이 집값이였다면
Θ1 = 1일때 비용이 가장 최소이며 가설이 가장 이상적이기에 이걸 기계가 학습하면 된다
이번에는 Θ1만 다뤄봤지만 다음에는 Θ0과 Θ1 모두 다뤄보겠다
-----------------------------------------------------------------------------------------------------
Coursera 사이트의 인공지능 강의를 토대로 작성됨
'인공지능' 카테고리의 다른 글
06. 기울기하강 알고리즘(Gradient Descent) (0) | 2018.07.14 |
---|---|
05. 비용함수(Cost Function)(3) (2) | 2018.07.14 |
03. 비용함수(Cost Function)(1) (0) | 2018.07.14 |
02. 모델표현(Model Representation) (0) | 2018.07.13 |
01. 인공지능 개론 (0) | 2018.07.06 |