添加链接
link管理
链接快照平台
  • 输入网页链接,自动生成快照
  • 标签化管理网页链接

TensorRT – TensorRT was linked against cuBLAS/cuBLAS LT 11.6.1 but loaded cuBLAS/cuBLAS LT 11.5.4错误提示

2023-03-02 作者你好,请问在Hand Tracking和Holistic Tracking这两个任务分别编译DLL库的时候,为什么Hand Tracking需要从Mediapipe的原始仓库中拷贝mediapipe\mediapipe\examples\desktop\hand_tracking文件夹下的BUILD文件到新建的目录mediapipe\mediapipe\examples\desktop\hand_tracking_test下。 而Holistic 不需要啊? funnywii 在 2024-04-30 15:34:35 评论 Mediapipe – 将Mediapipe HolisticTracking封装成动态链接库dll/so,实现在桌面应用中嵌入全身关节点识别、手势识别、抬手放手检测识别功能

TensorRT – 使用trtexec工具转换模型、运行模型、测试网络性能

TensorRT 发布于2021-09-19 阅读 7,851次 0 次评论 本文共1851个字,阅读需要5分钟。
  • 将Caffe模型转换为TensorRT模型,启动所有精度以达到最佳性能
  • trtexec --deploy=mnist.prototex --model=mnist.caffe --saveEngine=mnist.trt --best
    
  • 将Caffe模型转换为TensorRT模型,启动所有精度以达到最佳性能,并跳过推理性能测试
  • trtexec --deploy=mnist.prototex --model=mnist.caffe --saveEngine=mnist.trt --best --buildOnly
    

    1.2 ONNX模型转换为TensorRT模型

  • 将ONNX模型转换为静态batchsize的TensorRT模型,启动所有精度以达到最佳性能,工作区大小设置为1024M
  • trtexec --onnx=mnist.onnx --explicitBatch --saveEngine=mnist.trt --workspace=1024 --best
    
  • 将ONNX模型转换为动态batchsize的TensorRT模型,启动所有精度以达到最佳性能,工作区大小设置为1024M
  • trtexec --onnx=mnist.onnx --minShapes=input:<shape_of_min_batch> --optShapes=input:<shape_of_opt_batch> --maxShapes=input:<shape_of_max_batch> --saveEngine=mnist.trt --best --workspace=1024 --best
    

    --minShapes,--optShapes ,--maxShapes必须全部设置,设置的形式为:batchsize x 通道数 x 输入尺寸x x 输入尺寸y

    --minShapes=input:1x3x416x416
    --optShapes=input:8x3x416x416
    --maxShapes=input:8x3x416x416
    

    1.3 UFF模型转换为TensorRT模型

    2 运行ONNX模型

  • 在具有静态输入形状的全维模式下运行 ONNX 模型
  • trtexec --onnx=model.onnx
    
  • 使用给定的输入形状在全维模式下运行 ONNX 模型
  • trtexec --onnx=model.onnx --shapes=input:32x3x244x244
    
  • 使用一系列可能的输入形状对 ONNX 模型进行基准测试
  • trtexec --onnx=model.onnx --minShapes=input:1x3x244x244 --optShapes=input:16x3x244x244 --maxShapes=input:32x3x244x244 --shapes=input:5x3x244x244
    

    3 网络性能测试

  • 加载转换后的TensorRT模型进行性能测试,指定batch大小
  • trtexec --loadEngine=mnist16.trt --batch=1
    
  • 收集和打印时序跟踪信息
  • trtexec --deploy=data/AlexNet/AlexNet_N2.prototxt --output=prob --exportTimes=trace.json
    
  • 使用多流调整吞吐量
  • 调整吞吐量可能需要运行多个并发执行流。例如,当实现的延迟完全在所需阈值内时,我们可以增加吞吐量,即使以一些延迟为代价。例如,为批量大小 1 和 2 保存引擎并假设两者都在 2ms 内执行,延迟阈值:

    trtexec --deploy=GoogleNet_N2.prototxt --output=prob --batch=1 --saveEngine=g1.trt --int8 --buildOnly
    trtexec --deploy=GoogleNet_N2.prototxt --output=prob --batch=2 --saveEngine=g2.trt --int8 --buildOnly
    

    保存的引擎可以尝试找到低于 2 ms 的组合批次/流,以最大化吞吐量:

    trtexec --loadEngine=g1.trt --batch=1 --streams=2
    trtexec --loadEngine=g1.trt --batch=1 --streams=3
    trtexec --loadEngine=g1.trt --batch=1 --streams=4
    trtexec --loadEngine=g2.trt --batch=2 --streams=2
    				

    本文作者:StubbornHuang

    版权声明:本文为站长原创文章,如果转载请注明原文链接!

    原文标题:TensorRT – 使用trtexec工具转换模型、运行模型、测试网络性能

    原文链接:https://www.stubbornhuang.com/1719/

    发布于:2021年09月19日 10:19:48

    修改于:2023年06月26日 21:14:39

    声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

    TensorRTtrtexec模型性能测试转换模型运行模型
    资源分享 - Div, Grad, Curl, and All That - An Informal Text on Vector Calculus , Third Edition 英文PDF下载
    计算几何与计算机图形学资源
    当前分类随机文章推荐
    全站随机文章推荐
  • 欢迎大家交换友链,可在 https://www.stubbornhuang.com/申请友情链接 进行友链交换申请!

  • 计算机图形学与计算几何经典必备书单整理,下载链接可参考: https://www.stubbornhuang.com/1256/

  • 本站会放置Google广告用于维持域名以及网站服务器费用。

  • 本站由于前段时间遭受到大量临时和国外邮箱注册,所以对可注册的邮箱类型进行了限制!

  • 在本站开通年度VIP,无限制下载本站资源和阅读本站文章

  • 感谢大家访问本站,希望本站的内容可以帮助到大家!

  •