Gradient descent algorithm1 [section_3_lab] Gradient descent algorithm 실습 Gradient descent algorithm 실습코드1을 간략하게 코드2로 표현할 수 있다.# 코드 1 # learning_rate : w를 얼만큼씩 옮길것인지learning_rate = 0.1# cost funtion을 미분한 수식gradient = tf.reduce_mean((W * X - Y) * X)# 다음으로 이동 될 w값 -> descent에 저장descent = W - learning_rate * gradient# w를 descent로 updateupdate = W.assign(descent) # 코드 2 # Minimize: Gradient Descent Magicoptimizer = tf.train.GradientDescentOptimizer(learning_rate=0.1)train.. 2018. 11. 8. 이전 1 다음