Home

Awesome

ONNX TensorRT GitHub Repo stars GitHub all releases

Depth Anything Tensorrt Deploy

NVIDIA TensorRT deployment of Depth Anything: Unleashing the Power of Large-Scale Unlabeled Data.

<div align=center> <img src="https://github.com/LiheYoung/Depth-Anything/blob/main/assets/teaser.png" width=100%> </div>

环境配置

  1. 配置配置pytorch gpu环境,与工程下的requestment.txt

cuda&cudnn:https://zhuanlan.zhihu.com/p/424817205 ,建议配置比显卡驱动cuda版本低一点的cuda编译器,比如我nvidia-smi查看的cuda版本是12.0,这里根据教程配置11.7。另外建议使用conda等虚拟环境,并且手动从pytorch官网下载对应gpu驱动版本的pytorch。本工程中我使用的是pytorch1.13

  1. 配置tensorrt,建议配置最新的tensorrt8.6版本,对transformer block的部署优化更好

https://zhuanlan.zhihu.com/p/392143346

  1. 额外的tensorrt环境变量,设置trtexec应用的环境变量
# 写入 ~/.bashrc 中
export PATH=/opt/tensorrt/TensorRT-8.6.0.12/bin:$PATH
# 退出后source一下
  1. 源码安装tensorrt python包:
https://github.com/NVIDIA/TensorRT/tree/release/8.6/tools/experimental/trt-engine-explorer
  1. (c++ runtime 测试依赖) 配置Opencv4 C++环境

  2. (可选)下载转换好的vit-s的预训练模型放在weigth文件夹中,用于直接测试(带有int8量化的模型由于没有校准,输出不可用,建议pc端测试fp16部署,jetson平台测试int8-fp16混合精度量化),注意不同tensorrt版本的engin模型推理支持可能不兼容,需要在重新从onnx导出

模型转换

  1. 从pytorch模型导出onnx,这里导出vit-s编码器的depth anything
python3 export_onnx.py --model s
  1. onnx 图优化
onnxsim \
  weights/depth_anything_vits14.onnx \
  weights/depth_anything_vits14-sim.onnx
  1. onnx转trt engin模型文件,这里指定--fp16采用fp16推理精度

也可以指定--int8 --fp16做混合精度量化,开启后会对decoder和其他部分的conv等算子按int8量化,在pc的显卡上性能提升不明显,但在jetson这一类设备上面困难会有比较明显的提升,但不进行校准的话输出就不能看了(这里提供的8/16混合量化的trt模型没有经过校准,只做性能测试)

不能只指定--int8,中间vit中的一部分不能被trtexec量化到int8,会被以fp32精度推理,所以速度反而更慢了。如果想要纯int8推理,需要在pytorch导出onnx时进行ptq显式量化,并开发tensorrt相应的融合layer的插件与算子

trtexec \
  --onnx=weights/depth_anything_vits14-sim.onnx \
  --iterations=500 \
  --workspace=16384 \
  --percentile=99 \
  --fp16 \
  --streams=1 \
  --exportProfile=weights/depth_anything_vits14-sim-ptq-f16.profile.json \
  --exportLayerInfo=weights/depth_anything_vits14-sim-ptq-f16.graph.json \
  --saveEngine=weights/depth_anything_vits14-sim-ptq-f16.plan \
  --profilingVerbosity=detailed
  1. 上面一步中导出了graph和prof的json文件,可以进行可视化查询模型的结构(融合算子,量化信息,prof信息等)。

先修改trt_engin_visualize.py中的engine_name,再执行

python3 trt_engin_visualize.py

可能出现的报错

报错1:

ImportError: cannot import name 'url_quote' from 'werkzeug.urls' (/home/nox/anaconda3/envs/mldev/lib/python3.8/site-packages/werkzeug/urls.py)
pip3 install werkzeug==2.2.2 -i https://pypi.tuna.tsinghua.edu.cn/simple

报错2:visualize脚本如果出现了

ValueError: Could not load JSON file <_io.TextIOWrapper name='/home/nox/Workspace/nndev/depth-anything-tensorrt/weights/depth_anything_vits14-sim-ptq-f16.graph.json' mode='r' encoding='UTF-8'>

tensorrt8.6中生成的graph json的部分layer的metadata中有非法二进制符号,vscode中复制搜索这个符号全部删除即可

tensorrt runtime测试

指定CMakeLists.txt中的tensorrt和cuda安装路径 指定main.cpp中模型和测速视频的路径

mkdir build
cd build
cmake ..
make -j32
./DepthAnythingTRTDemo

性能参考

测试环境:PC (14700k + RTX3080TI); Ubuntu20.04 cuda11.7 tensorrt8.6

性能参考:

weightquantizetime
vit-s (batch 1)fp162.95ms
vit-s (batch 1)int8+fp162.77ms

具体细节可以从转换好的vit-s的预训练模型中pref的json文件,或者图片可视化的trt模型结构中找到每一层layer的耗时信息、输入输出的shape与对应的量化信息

这里8/16混合量化性能差距很小可以参考这两者trt模型的可视化,纯fp16推理的模型encoder在第一层conv后被融合为了一个layer,TensorRT的新版本对VIT pattern的性能优化的很好。8/16混合量化的模型,encoder的内部所有的conv被量化为int8,conv输出再reformat到fp16送入transformer block,这一堆的转换开销较大,并且导致整个encoder不能被融合为一个layer做优化。

比较简单解决方法是在pytorch做ptq只对decoder插qdq做int8量化,endocer不做量化,这样通过量化提升decoder推理速度的同时,保留了tensorrt对encoder优化。但是不知道tensorrt对jetson orin平台的vit layer优化是否也能达到这个水平,实际部署场景中可以考虑手动实现一个8bit的vit layer,对整个网络做ptq,追求在嵌入式平台中的性能。另外模型的输出前存在一个resize op的输入shape和输出完全一致,trt模型转换时会去掉这个resize(但后面的relu没被去掉哈哈哈),用pytorch做显式ptq前最好先写一个pass去除这种无用的pattern。

我测试的模型推理的过程中,gpu利用率仅有30%左右,在多图任务场景下(环视感知等)扩大batch部署可以有效提升整体的效率

Acknowledgement

Credits

If you use any ideas from the papers or code in this repo, please consider citing the authors of Depth Anything and DINOv2. Lastly, if the ONNX versions helped you in any way, please also consider starring this repository.

@article{depthanything,
      title={Depth Anything: Unleashing the Power of Large-Scale Unlabeled Data}, 
      author={Yang, Lihe and Kang, Bingyi and Huang, Zilong and Xu, Xiaogang and Feng, Jiashi and Zhao, Hengshuang},
      journal={arXiv:2401.10891},
      year={2024}
}
@misc{oquab2023dinov2,
  title={DINOv2: Learning Robust Visual Features without Supervision},
  author={Oquab, Maxime and Darcet, Timothée and Moutakanni, Theo and Vo, Huy V. and Szafraniec, Marc and Khalidov, Vasil and Fernandez, Pierre and Haziza, Daniel and Massa, Francisco and El-Nouby, Alaaeldin and Howes, Russell and Huang, Po-Yao and Xu, Hu and Sharma, Vasu and Li, Shang-Wen and Galuba, Wojciech and Rabbat, Mike and Assran, Mido and Ballas, Nicolas and Synnaeve, Gabriel and Misra, Ishan and Jegou, Herve and Mairal, Julien and Labatut, Patrick and Joulin, Armand and Bojanowski, Piotr},
  journal={arXiv:2304.07193},
  year={2023}
}