亚洲综合原千岁中文字幕_国产精品99久久久久久久vr_无码人妻aⅴ一区二区三区浪潮_成人h动漫精品一区二区三

主頁 > 知識庫 > PyTorch模型轉TensorRT是怎么實現的?

PyTorch模型轉TensorRT是怎么實現的?

熱門標簽:高德地圖標注是免費的嗎 梅州外呼業務系統 大連crm外呼系統 地圖標注視頻廣告 百度地圖標注位置怎么修改 無錫客服外呼系統一般多少錢 老人電話機器人 北京電信外呼系統靠譜嗎 洪澤縣地圖標注

轉換步驟概覽

  • 準備好模型定義文件(.py文件)
  • 準備好訓練完成的權重文件(.pth或.pth.tar)
  • 安裝onnx和onnxruntime
  • 將訓練好的模型轉換為.onnx格式
  • 安裝tensorRT

環境參數

ubuntu-18.04
PyTorch-1.8.1
onnx-1.9.0
onnxruntime-1.7.2
cuda-11.1
cudnn-8.2.0
TensorRT-7.2.3.4

PyTorch轉ONNX

Step1:安裝ONNX和ONNXRUNTIME

網上找到的安裝方式是通過pip

pip install onnx
pip install onnxruntime

如果使用的是Anaconda環境,conda安裝也是可以的。

conda install -c conda-forge onnx
conda install -c conda-forge onnxruntime

Step2:安裝netron

netron是用于可視化網絡結構的,便于debug。

pip install netron

Step3 PyTorch轉ONNx

安裝完成后,可以根據下面code進行轉換。

#--*-- coding:utf-8 --*--
import onnx 
# 注意這里導入onnx時必須在torch導入之前,否則會出現segmentation fault
import torch
import torchvision 

from model import Net

model= Net(args).cuda()#初始化模型
checkpoint = torch.load(checkpoint_path)
net.load_state_dict(checkpoint['state_dict'])#載入訓練好的權重文件
print ("Model and weights LOADED successfully")

export_onnx_file = './net.onnx'
x = torch.onnx.export(net,
					torch.randn(1,1,224,224,device='cuda'), #根據輸入要求初始化一個dummy input
					export_onnx_file,
					verbose=False, #是否以字符串形式顯示計算圖
					input_names = ["inputs"]+["params_%d"%i for i in range(120)],#輸入節點的名稱,這里也可以給一個list,list中名稱分別對應每一層可學習的參數,便于后續查詢
					output_names = ["outputs"],# 輸出節點的名稱
					opset_version  = 10,#onnx 支持采用的operator set, 應該和pytorch版本相關
					do_constant_folding = True,
					dynamic_axes = {"inputs":{0:"batch_size"}, 2:"h", 3:"w"}, "outputs":{0: "batch_size"},})

net = onnx.load('./erfnet.onnx') #加載onnx 計算圖
onnx.checker.check_model(net) # 檢查文件模型是否正確
onnx.helper.printable_graph(net.graph) #輸出onnx的計算圖

dynamic_axes用于指定輸入、輸出中的可變維度。輸入輸出的batch_size在這里都設為了可變,輸入的第2和第3維也設置為了可變。

Step 4:驗證ONNX模型

下面可視化onnx模型,同時測試模型是否正確運行

import netron
import onnxruntime
import numpy as np
from PIL import Image
import cv2

netron.start('./net.onnx')
test_image = np.asarray(Image.open(test_image_path).convert('L'),dtype='float32') /255.
test_image = cv2.resize(np.array(test_image),(224,224),interpolation = cv2.INTER_CUBIC)
test_image = test_image[np.newaxis,np.newaxis,:,:]
session = onnxruntime.InferenceSession('./net.onnx')
outputs = session.run(None, {"inputs": test_image})
print(len(outputs))
print(outputs[0].shape)
#根據需要處理一下outputs[0],并可視化一下結果,看看結果是否正常

ONNX轉TensorRT

Step1:從NVIDIA下載TensorRT下載安裝包 https://developer.nvidia.com/tensorrt

根據自己的cuda版本選擇,我選擇的是TensorRT 7.2.3,下載到本地。

cd download_path
dpkg -i nv-tensorrt-repo-ubuntu1804-cuda11.1-trt7.2.3.4-ga-20210226_1-1_amd64.deb
sudo apt-get update
sudo apt-get install tensorrt

查了一下NVIDIA的官方安裝教程https://docs.nvidia.com/deeplearning/tensorrt/quick-start-guide/index.html#install,由于可能需要調用TensorRT Python API,我們還需要先安裝PyCUDA。這邊先插入一下PyCUDA的安裝。

pip install 'pycuda2021.1'

遇到任何問題,請參考官方說明 https://wiki.tiker.net/PyCuda/Installation/Linux/#step-1-download-and-unpack-pycuda
如果使用的是Python 3.X,再執行一下以下安裝。

sudo apt-get install python3-libnvinfer-dev

如果需要ONNX graphsurgeon或使用Python模塊,還需要執行以下命令。

sudo apt-get install onnx-graphsurgeon

驗證是否安裝成功。

dpkg -l | grep TensorRT

得到類似上圖的結果就是安裝成功了。

問題:此時在python中import tensorrt,得到ModuleNotFoundError: No module named 'tensorrt'的報錯信息。

網上查了一下,通過dpkg安裝的tensorrt是默認安裝在系統python中,而不是Anaconda環境的python里的。由于系統默認的python是3.6,而Anaconda里使用的是3.8.8,通過export PYTHONPATH的方式,又會出現python版本不匹配的問題。

重新搜索了一下如何在anaconda環境里安裝tensorRT。

pip3 install --upgrade setuptools pip
pip install nvidia-pyindex
pip install nvidia-tensorrt

驗證一下這是Anconda環境的python是否可以import tensorrt。

import tensorrt
print(tensorrt.__version__)
#輸出8.0.0.3

Step 2:ONNX轉TensorRT

先說一下,在這一步里遇到了*** AttributeError: ‘tensorrt.tensorrt.Builder' object has no attribute 'max_workspace_size'的報錯信息。網上查了一下,是8.0.0.3版本的bug,要退回到7.2.3.4。
emmm…

pip unintall nvidia-tensorrt #先把8.0.0.3版本卸載掉
pip install nvidia-tensorrt==7.2.* --index-url https://pypi.ngc.nvidia.com # 安裝7.2.3.4banben 

轉換代碼

import pycuda.autoinit 
import pycuda.driver as cuda
import tensorrt as trt
import torch 
import time 
from PIL import Image
import cv2,os
import torchvision 
import numpy as np
from scipy.special import softmax

### get_img_np_nchw h和postprocess_the_output函數根據需要進行修改

TRT_LOGGER = trt.Logger()

def get_img_np_nchw(img_path):
	img = Image.open(img_path).convert('L')
	img = np.asarray(img, dtype='float32')
	img = cv2.resize(np.array(img),(224, 224), interpolation = cv2.INTER_CUBIC)
	img = img / 255.
	img = img[np.newaxis, np.newaxis]
	return image
class HostDeviceMem(object):
    def __init__(self, host_mem, device_mem):
        """host_mom指代cpu內存,device_mem指代GPU內存
        """
        self.host = host_mem
        self.device = device_mem

    def __str__(self):
        return "Host:\n" + str(self.host) + "\nDevice:\n" + str(self.device)

    def __repr__(self):
        return self.__str__()

def allocate_buffers(engine):
    inputs = []
    outputs = []
    bindings = []
    stream = cuda.Stream()
    for binding in engine:
        size = trt.volume(engine.get_binding_shape(binding)) * engine.max_batch_size
        dtype = trt.nptype(engine.get_binding_dtype(binding))
        # Allocate host and device buffers
        host_mem = cuda.pagelocked_empty(size, dtype)
        device_mem = cuda.mem_alloc(host_mem.nbytes)
        # Append the device buffer to device bindings.
        bindings.append(int(device_mem))
        # Append to the appropriate list.
        if engine.binding_is_input(binding):
            inputs.append(HostDeviceMem(host_mem, device_mem))
        else:
            outputs.append(HostDeviceMem(host_mem, device_mem))
    return inputs, outputs, bindings, stream

def get_engine(max_batch_size=1, onnx_file_path="", engine_file_path="",fp16_mode=False, int8_mode=False,save_engine=False):
    """
    params max_batch_size:      預先指定大小好分配顯存
    params onnx_file_path:      onnx文件路徑
    params engine_file_path:    待保存的序列化的引擎文件路徑
    params fp16_mode:           是否采用FP16
    params int8_mode:           是否采用INT8
    params save_engine:         是否保存引擎
    returns:                    ICudaEngine
    """
    # 如果已經存在序列化之后的引擎,則直接反序列化得到cudaEngine
    if os.path.exists(engine_file_path):
        print("Reading engine from file: {}".format(engine_file_path))
        with open(engine_file_path, 'rb') as f, \

            trt.Runtime(TRT_LOGGER) as runtime:
            return runtime.deserialize_cuda_engine(f.read())  # 反序列化
    else:  # 由onnx創建cudaEngine
        
        # 使用logger創建一個builder 
        # builder創建一個計算圖 INetworkDefinition
        explicit_batch = 1  (int)(trt.NetworkDefinitionCreationFlag.EXPLICIT_BATCH)
        # In TensorRT 7.0, the ONNX parser only supports full-dimensions mode, meaning that your network definition must be created with the explicitBatch flag set. For more information, see Working With Dynamic Shapes.

        with trt.Builder(TRT_LOGGER) as builder, \

            builder.create_network(explicit_batch) as network,  \

            trt.OnnxParser(network, TRT_LOGGER) as parser, \

            builder.create_builder_config() as config: # 使用onnx的解析器綁定計算圖,后續將通過解析填充計算圖
            profile = builder.create_optimization_profile()
            profile.set_shape("inputs", (1, 1, 224, 224),(1,1,224,224),(1,1,224,224))
            config.add_optimization_profile(profile)

            config.max_workspace_size = 130  # 預先分配的工作空間大小,即ICudaEngine執行時GPU最大需要的空間
            builder.max_batch_size = max_batch_size # 執行時最大可以使用的batchsize
            builder.fp16_mode = fp16_mode
            builder.int8_mode = int8_mode

            if int8_mode:
                # To be updated
                raise NotImplementedError

            # 解析onnx文件,填充計算圖
            if not os.path.exists(onnx_file_path):
                quit("ONNX file {} not found!".format(onnx_file_path))
            print('loading onnx file from path {} ...'.format(onnx_file_path))
            # with open(onnx_file_path, 'rb') as model: # 二值化的網絡結果和參數
            #     print("Begining onnx file parsing")
            #     parser.parse(model.read())  # 解析onnx文件
            parser.parse_from_file(onnx_file_path) # parser還有一個從文件解析onnx的方法

            print("Completed parsing of onnx file")
            # 填充計算圖完成后,則使用builder從計算圖中創建CudaEngine
            print("Building an engine from file{}' this may take a while...".format(onnx_file_path))

            #################
            # import pdb;pdb.set_trace()
            print(network.get_layer(network.num_layers-1).get_output(0).shape)
            # network.mark_output(network.get_layer(network.num_layers -1).get_output(0))
            engine = builder.build_engine(network,config)  # 注意,這里的network是INetworkDefinition類型,即填充后的計算圖
            print("Completed creating Engine")
            if save_engine:  #保存engine供以后直接反序列化使用
                with open(engine_file_path, 'wb') as f:
                    f.write(engine.serialize())  # 序列化
            return engine

def do_inference(context, bindings, inputs, outputs, stream, batch_size=1):
    # Transfer data from CPU to the GPU.
    [cuda.memcpy_htod_async(inp.device, inp.host, stream) for inp in inputs]
    # Run inference.
    context.execute_async(batch_size=batch_size, bindings=bindings, stream_handle=stream.handle)
    # Transfer predictions back from the GPU.
    [cuda.memcpy_dtoh_async(out.host, out.device, stream) for out in outputs]
    # Synchronize the stream
    stream.synchronize()
    # Return only the host outputs.
    return [out.host for out in outputs]

def postprocess_the_outputs(outputs, shape_of_output):
    outputs = outputs.reshape(*shape_of_output)
    out = np.argmax(softmax(outputs,axis=1)[0,...],axis=0)
    # import pdb;pdb.set_trace()
    return out
# 驗證TensorRT模型是否正確
onnx_model_path = './Net.onnx'
max_batch_size = 1
# These two modes are dependent on hardwares
fp16_mode = False
int8_mode = False
trt_engine_path = './model_fp16_{}_int8_{}.trt'.format(fp16_mode, int8_mode)
# Build an engine
engine = get_engine(max_batch_size, onnx_model_path, trt_engine_path, fp16_mode, int8_mode , save_engine=True)
# Create the context for this engine
context = engine.create_execution_context()
# Allocate buffers for input and output
inputs, outputs, bindings, stream = allocate_buffers(engine)  # input, output: host # bindings

# Do inference
img_np_nchw = get_img_np_nchw(img_path)
inputs[0].host = img_np_nchw.reshape(-1)
shape_of_output = (max_batch_size, 2, 224, 224)

# inputs[1].host = ... for multiple input
t1 = time.time()
trt_outputs = do_inference(context, bindings=bindings, inputs=inputs, outputs=outputs, stream=stream) # numpy data
t2 = time.time()
feat = postprocess_the_outputs(trt_outputs[0], shape_of_output)

print('TensorRT ok')
print("Inference time with the TensorRT engine: {}".format(t2-t1))

根據https://www.jb51.net/article/187266.htm文章里的方法,轉換的時候會報下面的錯誤:

原來我是根據鏈接里的代買進行轉換的,后來進行了修改,按我文中的轉換代碼不會有問題,

修改的地方在

with trt.Builder(TRT_LOGGER) as builder, \

            builder.create_network(explicit_batch) as network,  \

            trt.OnnxParser(network, TRT_LOGGER) as parser, \

            builder.create_builder_config() as config: # 使用onnx的解析器綁定計算圖,后續將通過解析填充計算圖
            profile = builder.create_optimization_profile()
            profile.set_shape("inputs", (1, 1, 224, 224),(1,1,224,224),(1,1,224,224))
            config.add_optimization_profile(profile)

            config.max_workspace_size = 130  # 預先分配的工作空間大小,即ICudaEngine執行時GPU最大需要的空間
            engine = builder.build_engine(network,config)

將鏈接中相應的代碼進行修改或添加,就沒有這個問題了。

到此這篇關于PyTorch模型轉TensorRT是怎么實現的?的文章就介紹到這了,更多相關PyTorch模型轉TensorRT內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Pytorch通過保存為ONNX模型轉TensorRT5的實現
  • pytorch_pretrained_bert如何將tensorflow模型轉化為pytorch模型
  • pytorch模型的保存和加載、checkpoint操作
  • PyTorch 如何檢查模型梯度是否可導
  • 解決Pytorch修改預訓練模型時遇到key不匹配的情況
  • pytorch 預訓練模型讀取修改相關參數的填坑問題

標簽:清遠 岳陽 吉林 安慶 泉州 洛陽 長春 怒江

巨人網絡通訊聲明:本文標題《PyTorch模型轉TensorRT是怎么實現的?》,本文關鍵詞  PyTorch,模型,轉,TensorRT,是,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《PyTorch模型轉TensorRT是怎么實現的?》相關的同類信息!
  • 本頁收集關于PyTorch模型轉TensorRT是怎么實現的?的相關信息資訊供網民參考!
  • 推薦文章
    国产视频一区二区在线观看| 四虎影视精品永久免费网站| 久久精品店| 日韩欧美一二三区| 青草国产在线观看| 国产亚洲精品aaa大片| 国产极品白嫩美女在线观看看 | 青青久久精品| 国产成人女人在线视频观看| 国产一区二区精品在线观看| 国产高清在线精品一区二区| 亚洲第一视频在线播放| 91麻豆精品国产高清在线| 精品国产一区二区三区精东影业| 欧美a级片免费看| 精品视频在线观看视频免费视频 | 你懂的日韩| 欧美日本国产| 亚洲 男人 天堂| 中文字幕一区二区三区 精品| 午夜欧美成人久久久久久| 黄色福利片| 国产精品自拍一区| 国产伦精品一区三区视频| 精品视频一区二区| 久久国产影院| 久久成人亚洲| 精品在线观看一区| 中文字幕97| 国产91精品一区| 成人在激情在线视频| 欧美一区二区三区在线观看| 精品视频在线观看视频免费视频 | 久久99中文字幕| 国产高清在线精品一区a| 欧美大片一区| 免费国产一级特黄aa大片在线| 精品美女| 精品视频免费看| 精品久久久久久综合网| 欧美日本韩国| 国产视频一区二区在线观看| 精品在线视频播放| 国产91精品系列在线观看| 欧美电影免费| 国产视频在线免费观看| 精品视频在线观看免费| 91麻豆国产福利精品| 日本特黄特黄aaaaa大片| 国产精品自拍亚洲| 欧美一级视| 成人免费网站久久久| 成人免费观看网欧美片| 色综合久久手机在线| 久草免费在线观看| 99久久精品国产免费| 精品久久久久久中文| 久久精品免视看国产明星| 国产原创视频在线| 精品国产三级a| 欧美夜夜骑 青草视频在线观看完整版 久久精品99无色码中文字幕 欧美日韩一区二区在线观看视频 欧美中文字幕在线视频 www.99精品 香蕉视频久久 | 999久久久免费精品国产牛牛| 日韩中文字幕一区| 欧美夜夜骑 青草视频在线观看完整版 久久精品99无色码中文字幕 欧美日韩一区二区在线观看视频 欧美中文字幕在线视频 www.99精品 香蕉视频久久 | 九九热国产视频| 国产原创中文字幕| 亚洲第一色在线| 可以在线看黄的网站| 成人a大片在线观看| 精品在线免费播放| 免费一级生活片| 精品视频在线观看视频免费视频| 欧美另类videosbestsex视频| 日本久久久久久久 97久久精品一区二区三区 狠狠色噜噜狠狠狠狠97 日日干综合 五月天婷婷在线观看高清 九色福利视频 | 超级乱淫黄漫画免费| 天天做日日爱| 成人免费高清视频| 四虎久久精品国产| 成人av在线播放| 二级特黄绝大片免费视频大片| 成人a级高清视频在线观看| 可以免费看毛片的网站| 九九精品久久久久久久久| 麻豆网站在线看| 可以免费看毛片的网站| 国产麻豆精品高清在线播放| 国产91精品系列在线观看| 欧美1区| 欧美1卡一卡二卡三新区| 日韩在线观看免费完整版视频| 欧美一级视频免费| 国产国语对白一级毛片| 欧美另类videosbestsex久久| 成人免费观看男女羞羞视频| 久久福利影视| 九九免费高清在线观看视频| 国产综合91天堂亚洲国产| 国产欧美精品| 黄视频网站免费看| 国产伦精品一区三区视频| 精品国产三级a| 午夜精品国产自在现线拍| 国产成人精品综合在线| 国产一区二区精品久久91| 精品视频一区二区| 黄视频网站免费看| 999精品在线| 色综合久久天天综合| 国产一区二区精品久久91| 国产网站免费观看| 你懂的福利视频| 你懂的日韩| 青青青草影院| 日本久久久久久久 97久久精品一区二区三区 狠狠色噜噜狠狠狠狠97 日日干综合 五月天婷婷在线观看高清 九色福利视频 | 国产高清视频免费| 美女免费毛片| 日韩专区亚洲综合久久| 国产极品精频在线观看| 成人高清护士在线播放| 日本在线不卡免费视频一区| 免费一级片网站| 久久久久久久免费视频| 精品久久久久久中文| 中文字幕97| 亚洲精品久久久中文字| 国产伦理精品| 九九久久99综合一区二区| 日韩中文字幕在线亚洲一区| 欧美激情中文字幕一区二区| 成人免费观看男女羞羞视频| 精品国产一区二区三区久久久蜜臀 | 黄色免费网站在线| 日韩一级精品视频在线观看| 精品国产一区二区三区精东影业| 国产不卡在线观看| 香蕉视频久久| 欧美激情在线精品video| 国产一区二区精品久久| 一级毛片视频免费| 色综合久久天天综线观看| 成人高清护士在线播放| 韩国三级香港三级日本三级la| 亚洲 欧美 成人日韩| 一级毛片视频播放| 二级特黄绝大片免费视频大片| 精品国产香蕉在线播出| 九九精品久久久久久久久| 91麻豆精品国产自产在线观看一区 | 久久久久久久免费视频| 午夜久久网| 国产一区二区精品| 成人高清视频在线观看| 欧美日本免费| 青青久久精品国产免费看| 沈樵在线观看福利| 欧美a级片免费看| 精品视频一区二区三区免费| 韩国毛片免费大片| 欧美a级v片不卡在线观看| 亚洲第一视频在线播放| 精品国产一区二区三区久久久蜜臀| 精品在线视频播放| 韩国三级视频网站| 久久国产一区二区| 国产成人精品综合在线| 好男人天堂网 久久精品国产这里是免费 国产精品成人一区二区 男人天堂网2021 男人的天堂在线观看 丁香六月综合激情 | 精品国产一区二区三区久久久蜜臀 | 国产原创中文字幕| 美国一区二区三区| 亚洲 国产精品 日韩| 国产麻豆精品视频| 日日爽天天| 国产国产人免费视频成69堂| 日韩av成人| 久久精品欧美一区二区| 国产一区二区精品| 日本伦理黄色大片在线观看网站| 免费的黄色小视频| 国产极品精频在线观看| 99色视频在线| 欧美激情一区二区三区视频高清| 日日爽天天| 黄视频网站在线观看| 精品视频在线看 | 一级毛片视频免费| 欧美1区| 美女免费精品高清毛片在线视| 国产伦精品一区三区视频| 日韩专区在线播放| 日韩专区在线播放| 久久99中文字幕| 美国一区二区三区| 成人免费观看视频| 免费国产在线观看不卡| 国产成人欧美一区二区三区的| 亚洲女初尝黑人巨高清在线观看| 成人免费观看视频| 日本免费乱人伦在线观看 | 成人在免费观看视频国产| 青青青草影院 |