츨처 : <"코딩셰프의 3분 딥러닝 케라스맛" 김성진 저>를 공부하면서 작성하였습니다.
코드
- 코드는 기존의 ann과 동일한데 모델 구성을 할때 은닉층이 하나 추가된다.
# 784개 입력, 은닉 노드 100, 50
Nin = 784
Nh_l = [100, 50]
number_of_class = 10
Nout = number_of_class
# 분류 DNN 모델 구현 ########################
from keras import layers, models
class DNN(models.Sequential):
def __init__(self, Nin, Nh_l, Nout):
super().__init__()
# 첫 번째 은닉층 : 784 in, 100 out & relu(sigmoid 사용시 역전파시 성능 저하)
self.add(layers.Dense(Nh_l[0], activation='relu', input_shape=(Nin,), name='Hidden-1'))
# 두 번쨰 은닉층 : 100 in, 50 out & relu
self.add(layers.Dense(Nh_l[1], activation='relu', name='Hidden-2'))
# softmax를 사용하여 출력 값들의 합이 1이 되도록 만들어 준다.
self.add(layers.Dense(Nout, activation='softmax'))
# 손실함수 : 교차 엔트로
self.compile(loss='categorical_crossentropy',optimizer='adam',metrics=['accuracy'])
# 데이터 입력
from keras import datasets
from keras.utils import np_utils
(X_train, y_train), (X_test, y_test) = datasets.mnist.load_data()
y_train = np_utils.to_categorical(y_train)
y_test = np_utils.to_categorical(y_test)
L, W, H = X_train.shape
X_train = X_train.reshape(-1, W * H)
X_test = X_test.reshape(-1, W * H)
X_train = X_train / 255.0
X_test = X_test / 255.0
# DNN을 사용하여 학습을 한다.
model = DNN(Nin, Nh_l, Nout)
history = model.fit(X_train, y_train, epochs=15, batch_size=100, validation_split=0.2)
performace_test = model.evaluate(X_test, y_test, batch_size=100)
print('Test Loss and Accuracy ->', performace_test)실행 결과
'IT > 머신러닝' 카테고리의 다른 글
| [Keras] CNN 기본예제(mnist) (0) | 2018.09.19 |
|---|---|
| [keras] DNN (Basic CIFAR10) (0) | 2018.09.06 |
| [Keras] ANN 기본 예제 (0) | 2018.08.31 |
| [Keras] 기본 예제 (0) | 2018.08.31 |
| [section_12_lab] Dynamic RNN & RNN with Time Series Data (0) | 2018.06.01 |