【Tensorflow】Tensorflow serving模型部署(三):製作包含已訓練好的object detection模型的docker鏡像

在前兩篇博客裏已經介紹瞭如何配置用tensorflow serving部署深度學習模型的環境和導出tensorflow serving可用的savedmodel模型文件。

1. 【Tensorflow】Tensorflow serving模型部署(一):運行官方demo

2. 【Tensorflow】Tensorflow serving模型部署(二):導出savedmodel模型

這一篇介紹如何製作包含訓練好的模型的docker鏡像。

一、拉取一個基礎鏡像

我選擇的tensorflow serving 1.12.0 gpu版本的鏡像。

docker pull tensorflow/serving:1.12.0-gpu

二、運行一個基礎鏡像的容器

docker run -d --name tfserving_gpu tensorflow/serving:1.12.0-gpu

-d:以後臺守護進程的方式運行容器。

--name:將這個容器命名爲tfserving_name。

這個時候會輸出一串

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章