在前兩篇博客裏已經介紹瞭如何配置用tensorflow serving部署深度學習模型的環境和導出tensorflow serving可用的savedmodel模型文件。
1. 【Tensorflow】Tensorflow serving模型部署(一):運行官方demo
2. 【Tensorflow】Tensorflow serving模型部署(二):導出savedmodel模型
這一篇介紹如何製作包含訓練好的模型的docker鏡像。
一、拉取一個基礎鏡像
我選擇的tensorflow serving 1.12.0 gpu版本的鏡像。
docker pull tensorflow/serving:1.12.0-gpu
二、運行一個基礎鏡像的容器
docker run -d --name tfserving_gpu tensorflow/serving:1.12.0-gpu
-d:以後臺守護進程的方式運行容器。
--name:將這個容器命名爲tfserving_name。
這個時候會輸出一串