본문 바로가기
IT/머신러닝

[section_2] 머신러닝 Linear Regression

by 빨강자몽 2018. 6. 1.

Linear Regression

  • 값들이 일정한 선을 만들며 그 값을 예측 할 수 있다고 가정한다.
  • 예시 : 공부를 많이 하면 할수록 시험 점수는 높아진다. 새벽에 춥다가 점점 오후가되면서 따뜻해진다.

Hypothesis(가정)

  • 값 들과 가장 유사한 선을 가정한다.
  • H(x) = ax +b 가장 값들과 유사한 a, b를 찾는다.
  • 빨, 파, 노선 중에서 파랑이 가장 값 들과 유사한 값을 가지는 선









Cost(Loss) Funtion

  • Hypothesis에서 가장 유사한 선을 찾기위해서 점과 선사이의 차이(거리) 값을 이용하여 구한다.
  • 어떤 점에서  y값을 가질때 H(x) - y의 값을 Cost(Loss)라 한다.
  • Cost값이 적을 수록 유사한 선이라고 가정한다.
  • 각 점에서의 Cost의 값이 모두 양수의 값를 만들기 위해 Cost를 제곱하여 사용한다.
        - 두 값의 절대적 차이(거리)를 표시하기 위함
        - 차이가 날 수록 cost의 값을 크게 증가 시켜주기 위함
  • 이후 위의 그림의 3개의 점에서의 차이값의 합을 3개의 개수로 나눠 준다. 이를 최종 Cost로한다. 


  • 코드로 표현하면 다음과 같다.
hypothesis = x_train * W + b
cost = tf.reduce_sum(tf.square(hypothesis - Y))