目錄
2 命令行輸入:tensorboard --logdir="logs",WEb查看。
1 代碼
import tensorflow as tf
import numpy as np
import os
def load_mnist(path):
"""加載本地下載好的mnist數據集"""
f = np.load(path)
x_train, y_train = f['x_train'], f['y_train']
x_test, y_test = f['x_test'], f['y_test']
f.close()
return (x_train, y_train), (x_test, y_test)
(x_train, y_train), (x_test, y_test) = load_mnist("mnist.npz")
x_train, x_test = x_train / 255.0, x_test / 255.0 # 將樣本從整數轉換爲浮點數
# 利用tf.keras.Sequential容器封裝網絡層,前一層網絡的輸出默認作爲下一層的輸入
model = tf.keras.models.Sequential([
tf.keras.layers.Flatten(input_shape=(28, 28)),
tf.keras.layers.Dense(128, activation='relu'), # 創建一層網絡,設置輸出節點數爲128,激活函數類型爲Relu
tf.keras.layers.Dropout(0.2), # 在訓練中每次更新時, 將輸入單元的按比率隨機設置爲 0, 這有助於防止過擬合
tf.keras.layers.Dense(10, activation='softmax')]) # Dense層就是所謂的全連接神經網絡層
model.summary()
# 爲訓練選擇優化器和損失函數:
model.compile(optimizer='adam',
loss='sparse_categorical_crossentropy',
metrics=['accuracy'])
log_dir = os.path.join("logs")
# print(log_dir)
if not os.path.exists(log_dir):
os.mkdir(log_dir)
# 定義TensorBoard對象.histogram_freq 如果設置爲0,則不會計算直方圖。
tensorboard_callback = tf.keras.callbacks.TensorBoard(log_dir=log_dir, histogram_freq=1)
# TensorBoard對象作爲回調傳給model.fit方法
model.fit(x_train, y_train, epochs=8, validation_data=(x_test, y_test), callbacks=[tensorboard_callback])
model.save_weights('weight/my_weights', save_format='tf') # 保存模型
2 命令行輸入:tensorboard --logdir="logs",WEb查看。
3 查看結果
4 注意
log_dir = os.path.join("logs")
os爲windows,則使用上述寫法。如果寫成log_dir=“logs”,則報錯。
顯示模型的結構:model.summary()