본문 바로가기

딥러닝34

[section_7_lab] epoch, batch, iterations epoch, batch, iterations데이터의 세대 -> epoch - 예 : 한 데이터를 여러번 학습시킬 때 각 횟수 마다 1세대, 2세대 이런식으로 부르게 됩니다. 한 번에 학습시키는 데이터의 크기 -> batch (메모리등의 사유로 인해서 쪼개서 데이터를 올린다.)이번 세대에 총 학습 데이터의 세트의 갯수 -> iterations 2018. 6. 1.
[section_7] ML의 실용과 몇가지 팁 Large learning rate vs Small learning rateLarge learning rate -> overshootingSmall laerning rate -> takes too long, stops at local minimum해결 방법 -> 정답은 없다! but cost function을 관찰하고 조절하는 방법이 있다. Data Preparing데이터 하나의 값이 지나치게 크거나 하여 Cost함수가 한쪽으로 치우쳐 데이터 활용전 선처리가 필요하다.해결방법 1 -> (0,0)의 센터 포지션에 위치시킨다.해결방법 2 -> 특정 범위 이외의 데이터들을 사용하지 않는다. Overfiltering 학습데이터를 활용하여 학습시킨 뒤 학습데이터를 활용하여 테스트를 하였을때 생길 수 있는 문제 -.. 2018. 6. 1.
[section_6] Softmax Regression (Multinomial Logistic Regression) 들어가기 전에 이번 수업은 사실 조금 수업 만으로 이해하는데 조금 어려움이 있어 개인적으로 추가 공부를 하고 정리하였다. Softmax Regression(Multinomial Logistic Regression) 개념편의상 Logistic Regression을 LR로 Softmax Regression SR로 표기 하겠습니다.SR은 예를들어 R,G,B 세개의 분류(2개 이상)로 구분하고자 할때 사용된다. -> Multinomial Logistic RegressionLR의 경우 R인지 아닌지를 구분한다면 SR의 경우 R인지 아닌지, G인지 아닌지, B인지 아닌지로 3번 반복하면 된다.SR의 경우 LR과 동일하게 Sigmoid function을 이용해 0~1 사이의 값을 구한다.(1에 가까울수록 R일 확률이.. 2018. 6. 1.
[section_5_lab] Logistic (Regression) Classification 실습 Logistic (Regression) Classification 실습실행 코드 import tensorflow as tf import numpy as np import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' x_data = [[1, 2], [2, 3], [3, 1], [4, 3], [5, 3], [6, 2]] y_data = [[0], [0], [0], [1], [1], [1]] # none이라는 것은 몇개의 데이터가 들어올지 모른다를 의미한다. # 뒤의 수는 각 데이터에 몇개의 값이 들어오는지를 의미한다. X = tf.placeholder(tf.float32, shape=[None, 2]) Y = tf.placeholder(tf.float32, shape=[No.. 2018. 6. 1.