基于Caffe格式部署YOLOV5模型
共 2969字,需浏览 6分钟
·
2021-03-03 09:23
【GiantPandaCV导语】本文为大家介绍了一个caffe部署yolov5 模型的教程,并开源了全部代码。主要是教你如何搭建caffe推理环境,对yolov5模型做onnx格式转换,onnx模型转caffe模型,实测在1070显卡做到了11ms一帧!
部署简介
如果说目标检测落地最广的是哪个算法,yolo系列肯定有一席之地,本文为大家介绍yolov5s 4.0模型如何转换为caffe模型并推理,据我所知,华为海思NNIE只支持caffe模型的转换,所以yolov5模型要想在海思芯片上部署,转换为caffe模型是有必要的(在我的1070显卡上,yolov5s 4.0 的模型inference做到了11ms一帧!)
环境配置
ubuntu:18.04 cuda:10.0 cudnn:7.6.5 caffe: 1.0 OpenCV:3.4.2 Anaconda3:5.2.0 相关的安装包我已经放到百度云盘,可以从如下链接下载: https://pan.baidu.com/s/17bjiU4H5O36psGrHlFdM7A 密码: br7h cuda和cudnn的安装 可以参考我的TensorRT量化部署yolov5模型的文章(https://zhuanlan.zhihu.com/p/348110519) Anaconda安装 chmod +x Anaconda3-5.2.0-Linux-x86_64.sh(从上面百度云盘链接下载) .- /Anaconda3-5.2.0-Linux-x86_64.sh 按ENTER,然后按q调至结尾 接受协议 yes 安装路径 使用默认路径 执行安装 在使用的用户.bashrc上添加anaconda路径,比如 export PATH=/home/willer/anaconda3/bin:$PATH caffe安装 git clone https://github.com/Wulingtian/yolov5_caffe.git cd yolov5_caffe 命令行输入如下内容: export CPLUS_INCLUDE_PATH=/home/你的用户名/anaconda3/include/python3.6m make all -j8 make pycaffe -j8 vim ~/.bashrc export PYTHONPATH=/home/你的用户名/yolov5_caffe/python:$PYTHONPATH source ~/.bashrc
编译过程踩过的坑
libstdc++.so.6: version `GLIBCXX_3.4.21' not found
解决方案:https://blog.csdn.net/phdsky/article/details/84104769?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.add_param_isCf&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.add_param_isCf#commentBox
ImportError: No module named google.protobuf.internal
解决方案:https://blog.csdn.net/quantum7/article/details/83507364
wrap_python.hpp:50:23: fatal error: pyconfig.h: No such file or dir
解决方案:https://blog.csdn.net/weixin_37251044/article/details/79158823
yolov5s模型转换onnx模型
pip安装onnx和onnx-simplifier pip install onnx pip install onnx-simplifier 拉取yolov5官方代码 git clone https://github.com/ultralytics/yolov5.git 训练自己的模型步骤参考yolov5官方介绍,训练完成后我们得到了一个模型文件 cd yolov5 python models/export.py --weights 训练得到的模型权重路径 --img-size 训练图片输入尺寸 python -m onnxsim onnx模型名称 yolov5s-simple.onnx 得到最终简化后的onnx模型
onnx模型转换caffe模型
git clone https://github.com/Wulingtian/yolov5_onnx2caffe.git cd yolov5_onnx2caffe v- im convertCaffe.py 设置onnx_path(上面转换得到的onnx模型),prototxt_path(caffe的prototxt保存路径),caffemodel_path(caffe的caffemodel保存路径) python convertCaffe.py 得到转换好的caffe模型
caffe模型推理
定位到yolov5_caffe目录下 cd tools vim caffe_yolov5s.cpp 设置如下参数: INPUT_W(模型输入宽度) INPUT_H(模型输入高度) NUM_CLASS(模型有多少个类别,例如我训练的模型是安全帽检测,只有1类,所以设置为1,不需要加背景类) NMS_THRESH(做非极大值抑制的阈值) CONF_THRESH(类别置信度) prototxt_path(caffe模型的prototxt路径) caffemodel_path(caffe模型的caffemodel路径) pic_path(预测图片的路径) 定位到yolov5_caffe目录下 make -j8 cd build ./tools/caffe_yolov5s 输出平均推理时间,以及保存预测图片到当前目录下,至此,部署完成!
华为海思NNIE部署拙见
如果有小伙伴,想把caffe模型部署到海思芯片,建议把yolov5的focus层替换为conv层(stride为2),upsample层替换为deconv层,如下图所示修改:
预测图片展示
欢迎关注GiantPandaCV, 在这里你将看到独家的深度学习分享,坚持原创,每天分享我们学习到的新鲜知识。( • ̀ω•́ )✧
有对文章相关的问题,或者想要加入交流群,欢迎添加BBuf微信:
为了方便读者获取资料以及我们公众号的作者发布一些Github工程的更新,我们成立了一个QQ群,二维码如下,感兴趣可以加入。