Skip to content

Latest commit

 

History

History
39 lines (36 loc) · 2.08 KB

STARK_Lightning_Ch.md

File metadata and controls

39 lines (36 loc) · 2.08 KB

STARK-Lightning 中文教程

前言ONNXRUNTIME 是微软开源的一个用于网络推理加速的库,在该教程中我们将教给大家如何将训练好的模型导出成ONNX格式, 并使用ONNXRUNTIME来进一步加速推理,加速后的STARK-Lightning在RTX TITAN上的运行速度可达200~300 FPS!让我们开始吧

安装onnx和onnxruntime

如果想在GPU上使用onnxruntime完成推理

pip install onnx onnxruntime-gpu==1.6.0

如果只需要在CPU上使用

pip install onnx onnxruntime

##ONNX模型转换与推理测试 下载训练好的PyTorch模型权重文件 STARK_Lightning

将训练好的PyTorch模型转换成onnx格式,并测试onnxruntime

python tracking/ORT_lightning_X_trt_backbone_bottleneck_pe.py  # for the template branch
python tracking/ORT_lightning_X_trt_complete.py  # for the search region branch
  • 模型转换在终端里可以跑通,但是在pycharm里面会报找不到libcudnn8.so的错误,后面就在终端运行吧

在LaSOT上测试转换后的模型(支持多卡推理)

  • 首先在lib/test/tracker/stark_lightning_X_trt.py中设置 use_onnx = True, 之后运行
python tracking/test.py stark_lightning_X_trt baseline_rephead_4_lite_search5 --threads 8 --num_gpus 2

其中num_gpus是想使用的GPU数量,threads是进程数量,我们通常将其设置成GPU数量的4倍。 如果想一个一个视频来跑,可以运行以下指令

python tracking/test.py stark_lightning_X_trt baseline_rephead_4_lite_search5 --threads 0 --num_gpus 1
  • 评估跟踪指标
python tracking/analysis_results_ITP.py --script stark_lightning_X_trt --config baseline_rephead_4_lite_search5