본문 바로가기

머신러닝34

[section_3] Gradient descent algorithm Cost(w)의 값이 최소가되는 w를 구하는 방법! "h(x) = wx+b"이지만, 간략하게 "h(x) = wx"로 가정한다.이전 시간의 x, y가 각 각 1,2,3 일때 w변화에 따라 cost(w) 값을 표시해 보면 다음 과 같은 형태의 그래프가 그려진다. 이때 가장 작은 cost를 가지는 점은 w가 1인 지점이된다.또한 w가 1인 지점은 그래프의 기울기가 0인 지점이다.-> 기울기가 가장 작은 지점이 가장 작은 cost를 가진다. 따라서 "기울기가 가장 작은 지점을 찾아서 cost가 가장 작은 지점을 찾자!"의 개념이 바로 Gradient descent algorithm이다. Gradient descent algorithm 가장 작은 Cost를 가지는 점을 찾기 위한 알고리즘이다. -> 결론적으로는 .. 2018. 6. 1.
[section_2_lab] 머신러닝 Linear Regression 실습 Cost(w,b)가 최소가 되는 w,b 구하기(상수 이용) x, y가 각 각 1, 2, 3(상수)일때 Cost(w,b)가 최소가 되는 w,b를 구한다.tf.placeholder을 변수로, tf.Variable을 trainable로 이해하면 좋다.# -*- coding: utf-8 -*- import tensorflow as tf # X and Y data : 넣고자 하는 데이터 set x_train = [1, 2, 3] y_train = [1, 2, 3] # 최종적으로 구하고자 하는 w,b 변수 W = tf.Variable(tf.random_normal([1]), name='weight') b = tf.Variable(tf.random_normal([1]), name='bias') # Our hypoth.. 2018. 6. 1.
[section_2] 머신러닝 Linear Regression Linear Regression 값들이 일정한 선을 만들며 그 값을 예측 할 수 있다고 가정한다.예시 : 공부를 많이 하면 할수록 시험 점수는 높아진다. 새벽에 춥다가 점점 오후가되면서 따뜻해진다. Hypothesis(가정)값 들과 가장 유사한 선을 가정한다.H(x) = ax +b 가장 값들과 유사한 a, b를 찾는다.빨, 파, 노선 중에서 파랑이 가장 값 들과 유사한 값을 가지는 선 Cost(Loss) FuntionHypothesis에서 가장 유사한 선을 찾기위해서 점과 선사이의 차이(거리) 값을 이용하여 구한다.어떤 점에서 y값을 가질때 H(x) - y의 값을 Cost(Loss)라 한다.Cost값이 적을 수록 유사한 선이라고 가정한다.각 점에서의 Cost의 값이 모두 양수의 값를 만들기 위해 Cost.. 2018. 6. 1.
[section_1] Tensorflow 기본예제(Hello world! 및 간단한 연산), 상수 & placeholder Hello, Tensorflow 출력하기출력 결과에서 b는 바이트 문자를 의미한다.(신경 안써도 됩니다.)hello = tf.constant("Hello, Tensorflow!") sess = tf.Session() print(sess.run(hello)) 간단한 연산해보기(상수 이용하기) 결과적으로 어떠한 결과가 나오는 것이 아니고 각 노드에 들어있는 정보를 표시해준다.# -*- coding: utf-8 -*- import tensorflow as tf # constant operation(node) create # 명시적으로 데이터형을 주었을때 node1 = tf.constant(3.0,tf.float32) # 명시적으로 데이터형을 안주었을 node2 = tf.constant(4.0) # add op.. 2018. 6. 1.