본문 바로가기
IT/머신러닝

[Keras] DNN 기본 예제

by 빨강자몽 2018. 8. 31.

 츨처 : <"코딩셰프의 3분 딥러닝 케라스맛" 김성진 저>를 공부하면서 작성하였습니다.


코드

- 코드는 기존의 ann과 동일한데 모델 구성을 할때 은닉층이 하나 추가된다.

# 784개 입력, 은닉 노드 100, 50
Nin = 784
Nh_l = [100, 50]
number_of_class = 10
Nout = number_of_class

# 분류 DNN 모델 구현 ########################
from keras import layers, models


class DNN(models.Sequential):
	def __init__(self, Nin, Nh_l, Nout):
		super().__init__()
		# 첫 번째 은닉층 : 784 in, 100 out & relu(sigmoid 사용시 역전파시 성능 저하)
		self.add(layers.Dense(Nh_l[0], activation='relu', input_shape=(Nin,), name='Hidden-1'))
		# 두 번쨰 은닉층 : 100 in, 50 out & relu
		self.add(layers.Dense(Nh_l[1], activation='relu', name='Hidden-2'))
		# softmax를 사용하여 출력 값들의 합이 1이 되도록 만들어 준다.
		self.add(layers.Dense(Nout, activation='softmax'))
		# 손실함수 : 교차 엔트로
		self.compile(loss='categorical_crossentropy',optimizer='adam',metrics=['accuracy'])


# 데이터 입력
from keras import datasets
from keras.utils import np_utils

(X_train, y_train), (X_test, y_test) = datasets.mnist.load_data()

y_train = np_utils.to_categorical(y_train)
y_test = np_utils.to_categorical(y_test)

L, W, H = X_train.shape
X_train = X_train.reshape(-1, W * H)
X_test = X_test.reshape(-1, W * H)

X_train = X_train / 255.0
X_test = X_test / 255.0

# DNN을 사용하여 학습을 한다.
model = DNN(Nin, Nh_l, Nout)
history = model.fit(X_train, y_train, epochs=15, batch_size=100, validation_split=0.2)
performace_test = model.evaluate(X_test, y_test, batch_size=100)
print('Test Loss and Accuracy ->', performace_test)

실행 결과


'IT > 머신러닝' 카테고리의 다른 글

[Keras] CNN 기본예제(mnist)  (0) 2018.09.19
[keras] DNN (Basic CIFAR10)  (0) 2018.09.06
[Keras] ANN 기본 예제  (0) 2018.08.31
[Keras] 기본 예제  (0) 2018.08.31
[section_12_lab] Dynamic RNN & RNN with Time Series Data  (0) 2018.06.01