Linear Regression
- 값들이 일정한 선을 만들며 그 값을 예측 할 수 있다고 가정한다.
- 예시 : 공부를 많이 하면 할수록 시험 점수는 높아진다. 새벽에 춥다가 점점 오후가되면서 따뜻해진다.
Hypothesis(가정)
- 값 들과 가장 유사한 선을 가정한다.
- H(x) = ax +b 가장 값들과 유사한 a, b를 찾는다.
- 빨, 파, 노선 중에서 파랑이 가장 값 들과 유사한 값을 가지는 선
Cost(Loss) Funtion
- Hypothesis에서 가장 유사한 선을 찾기위해서 점과 선사이의 차이(거리) 값을 이용하여 구한다.
- 어떤 점에서 y값을 가질때 H(x) - y의 값을 Cost(Loss)라 한다.
- Cost값이 적을 수록 유사한 선이라고 가정한다.
- 각 점에서의 Cost의 값이 모두 양수의 값를 만들기 위해 Cost를 제곱하여 사용한다.
- 두 값의 절대적 차이(거리)를 표시하기 위함
- 차이가 날 수록 cost의 값을 크게 증가 시켜주기 위함 - 이후 위의 그림의 3개의 점에서의 차이값의 합을 3개의 개수로 나눠 준다. 이를 최종 Cost로한다.
- 코드로 표현하면 다음과 같다.
hypothesis = x_train * W + b
cost = tf.reduce_sum(tf.square(hypothesis - Y))
cost = tf.reduce_sum(tf.square(hypothesis - Y))
'IT > 머신러닝' 카테고리의 다른 글
[section_3] Gradient descent algorithm (0) | 2018.06.01 |
---|---|
[section_2_lab] 머신러닝 Linear Regression 실습 (0) | 2018.06.01 |
[section_1] Tensorflow 기본예제(Hello world! 및 간단한 연산), 상수 & placeholder (0) | 2018.06.01 |
[section_1] Tensorflow 이해 와 Ranks,Shapes,Types (0) | 2018.06.01 |
[section_1] 머신러닝(Machine Learning) 이란? / Supervised vs Unsupervised Learning (0) | 2018.06.01 |