Python神經網絡集成技術Guide指南

Python神經網絡集成技術Guide指南

本指南將介紹如何加載一個神經網絡集成系統並從Python運行推斷。

提示

所有框架的神經網絡集成系統運行時接口都是相同的,因此本指南適用於所有受支持框架(包括TensorFlow、PyTorch、Keras和TorchScript)中的模型。

打包神經網絡集成系統

有關如何在所有支持的框架中創建Neuropod模型的示例,請參見基本介紹指南。

打包一個神經網絡集成系統

from neuropod.loader import load_neuropod

neuropod = load_neuropod(PATH_TO_MY_MODEL)

還可以使用load_ernood作爲上下文管理器:

from neuropod.loader import load_neuropod

with load_neuropod(PATH_TO_MY_MODEL) as neuropod:

# Do something here

Pass

選項

還可以在加載模型時提供運行時選項。

要選擇在哪個設備上運行模型,可以提供一個visible_gpu參數。

這是這個神經網絡集成系統應該運行的GPU的索引(如果有的話)。可以是無整數,也可以是非負整數。將此設置爲“無”將嘗試在CPU上運行此模型。

# Run on CPU

neuropod = load_neuropod(PATH_TO_MY_MODEL, visible_gpu=None)

# Run on the second GPU

neuropod = load_neuropod(PATH_TO_MY_MODEL, visible_gpu=1)

獲取模型的輸入和輸出

模型的輸入和輸出通過輸入和輸出屬性可用。

with load_neuropod(PATH_TO_MY_MODEL) as neuropod:

# This is a list of dicts containing the "name", "dtype", and "shape"

# of the input

print(neuropod.inputs, neuropod.outputs)

推論

模型的推理方法用於運行推理。此方法的輸入是將輸入名稱映射到值的dict。這必須與加載模型的neuropod配置中的輸入規範匹配。

提示

這個dict中的所有鍵必須是字符串,所有值必須是numpy數組。

infer的輸出是將輸出名稱映射到值的dict。對其進行檢查,以確保其與已加載模型的neuropod配置中的規範匹配。這個dict中的所有鍵都是字符串,所有值都是numpy數組。

x = np.array([1, 2, 3, 4])

y = np.array([5, 6, 7, 8])

with load_neuropod(ADDITION_MODEL_PATH) as neuropod:

results = neuropod.infer({“x”: x, “y”: y})

# array([6, 8, 10, 12])
print results[“out”]
序列化
import numpy as np from neuropod import neuropod_native
# An array to serialize
tensor = np.arange(5)
# Convert a numpy array to a NeuropodTensor and serialize it
serialized_bytes = neuropod_native.serialize(tensor)
# Deserialize a string of bytes to a NeuropodTensor
# (and return it as a numpy array)
deserialized = neuropod_native.deserialize(serialized_bytes)
# array([0, 1, 2, 3, 4])
print(deserializ
ed)
序列化代碼在NUMPY數組和C++ NoopPotoStor對****象之間轉換(以零拷貝方式)。然後,使用C++序列化功能來序列化/反序列化

提示
序列化和反序列化工作在Python和C++之間。這意味着可以在C+
+中序列化張量,在Python中反序列化,反之亦然。

Warning

這個API的目標是支持臨時序列化。不能保證向後兼容,因此此API不應用於數據的長期存儲。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章