(保证每周同步更新一次维护,不定期更新算法代码和引进结果实验!关于消融实验大多来自朋友的热心反馈,自己这边有些业务的,没能在COCO这种数据集对比稳定提升几乎没有说服力,是否把实验结果做个精简展示,探究范式CNN和transformer,如何根据经验设计网络结构、LOSS改进、辅助训练分支、样本匹配.... 这些今年依旧是我的重点核心 欢迎提供实验数据~)
对于自注意力机制的使用:很多人与CNN相结合使用得到精度提升,个人理解:原因不仅仅是长距离的依赖,早期我们使用固定权重的滤波器提取边缘再到CNN,CNN也许是对应着高通滤波,而self-attention对应于低通滤波,那么相当于对featuremap进行了一次平滑,这样从某种程度上可以解释互补之后的提升; 而且transfromer是很难发生过拟合或者说不存在,其实实际操作中,这些改动没有质变,最实在的还是你训练数据集的拟合够不够好,你的模型是否能反映出数据之间的特征特异性。
主要是对于工作以业务落地为主的我来说,在V5的仓库上进行尝试改动工作,结果无论如何,都是借鉴学习而已,更多的是兴趣,所以不改项目名,如何改进都是锦上添花和学习探索,只FORK,业余兴趣基于Yolov5的官方项目:参考官方 声明:这一年里有很多朋友用修改的idea方式以及注意力和设计结构去做Paper,不用咨询我意见:一切free!有成效自己论文开源随便,与我无关,只是希望各位能把实验数据反馈给我,因为平时工作业务比较忙,实验的时间不够。也是借此目的来和大家一起学习交流。
任何技术都要讲究:时序性,所以要不断学习不断业务工程,保持自己的状态!
工程部署:该仓库只属于研究探索,但是工程部署讲究简单高效、故可以参考我的Deepsteram SDK改的项目,集合了通用检测、人脸识别、OCR三个项目,高性能的部署AI框架开发逻辑,这个项目是我2021年整理并开源的,代码还未规范,但程序是没问题的。
DS_5.1&&Tensorrt7+ :https://github.com/positive666/Deepstream_Project
1.英伟达原生套装Deepstream &&Tensorrt,应用于流媒体处理,因为做过业务的都知道,推理性能不等于程序运行性能,核心除了模型的本身剪枝量化之外,涉及到了对数据输入的处理,这里的核心问题是如何提高GPU的利用率,那么最直接的就是GPU编解码.
2.目前嵌入式部署可能大多采用剪枝通道压缩模型的流程,在结合一些框架去进行引擎推理,推荐Yolov5nano或者nanodetplus,(工程上主流是通道裁剪,替换如C3的BOLOCK,你可以在仔细比对YOLOV5的迭代。还有就是如何使用SGD炼丹的经验了)
还有就是deepstream的普及,网上很多剪枝版本我也看了值得学习,但是工程不只在于学习,而在于成本和结果。
3.x86和Jeston都可以部署,既然有一站式解决方案,我觉得工程和研究应用是完全不同的操作思路,精简高效达到目的.deepstream全做了并完成降维打击 ,当然也需要一定的综合开发能力。
最近更新:
-
2022/7/5 启动了CI,因为总是更新有点代码问题,这样的话代码基本不会有问题了,后续扩充CI
-
2022/5/23 合并更新了YOLOV5仓库的最新版本,作者代码有点小问题就是数据集会重复下载,这部分我没就没合并他的更新,引入了新的算子,看来他也在探索实验
-
2022/3/26 测试下解耦训练结果/更新GAM注意力层代码:按照论文示意在大模型中使用分组卷积降低FLOPs,同步简单实验下,关于实验在闲暇之余都会慢慢完善的。 以small模型,在Visdrone数据下的简单验证:
Model mAP@.5 mAP@.5:95 Parameters(M) GFLOPs YOLOv5s 0.351 0.194 7.2 16.5 YOLOv5s+GAM 0.35 0.194 22.2 36.9 YOLOv5s_decoup 0.367 0.203 7.1 17.2 YOLOv5s_GAM_group 0.353 0.192 11 21.4 -
2022/6/20 跟作者更新的代码进行了一些更新和合并,最近在做人体姿态,有问题可以先挂issue
-
2022/4/12 1.修复了一些常规的问题BUG并合并了V5作者的最新代码更新,大概包含之前缺少了一些可学习参数和代码优化,如添加了swintransformerV2.0的相对位置编码加入优化器等。 2.目前看来GAM换用组卷积效果有待商榷,后续进一步整理消融实验总结。
-
2022/3/16 对上传的GAM注意力层进行了简单的实验,yolov5s+GAM在Visdrone数据集上的结果举例参考,后续的话其实难点在于轻量化,探究大模型的骨干估计只有大厂研究资源能有成本去做。
-
2022/3/5 近期会整理一些去年的实验数据///使用swin2的骨干,超参数需要调试一下,首先要稍微减低学习率,使用AdM,;也可以把SWIN层作为注意力插件训练,这个和以往的操作类似,不再赘述了 需要开启--swin_float 命令参数,因为点积不被cuda的half支持,而优化器的问题,那么问题基本就是较多的swin block 堆积导致的增量更新。同时伴随着GPU的开销。
-
2022/3.1 (不完整更新,供参考,怕忙断更,所以先放出部分修改,目前还在动态调试中)按照SWintransformerV2.0 的改进点:修改了NORM层的位置/attention将dot换成scaled cosine self-attention,待更新的优化部分:1.序列窗口注意力计算,降低显存开销 2、训练优化器
-
2022/2.28 添加了一个Swintransformer的Backbone和yaml示意结构,很多人把SWIN还像之前做成注意力层,但是其实swin设计是为了摒弃CNN去和NLP一统,而且精髓在于控制计算复杂度,其实backbone的全替换也许更值得尝试 ,内存开销和结构设计待优化
-
2022/2.22 忙里抽闲:更新了今天的yolov5的工程修复,修改了解耦头的代码风格,直接yaml选择参考使用,服务器回滚了代码。SWIN算子在,YAML文件丢失了,找时间从新写一个再上传,太忙看更新可能优先GIT,等有空博客细致归纳下
-
2022/2.6 ASFF使用的BUG已经修复;近期更新Swintransformer代码,简单说明下程序上其实是两种改法:1.类似算子层的修改,这个比较简单 2、全部替换成Swintransformer,这个对于整个程序存在一定的代码修改地方,稍微复杂点。
-
2022/1.9 补充一些注意力算子GAM,原理后续CSDN说明,修复BUG
-
2021/11.3 合并最新的YOLOV5的改动, 替换了CSPBOTTLENNECK的LeakRELUw为SLIU,其余全是代码和工程规范修改
-
2021.10.25 修复BUG,恢复EIOU
-
2021.10.13 更新合并YOLOV5v6.0版本,改进点:第一时间的更新解析可参考CSND博客
-
2021.9.25 将自注意力位置编码设置成可选项,默认取消,CBAM不收敛——将激活函数改回Sigmoid
-
2021.6.25 添加BIFPN结构包含P5/P6层,增大开销但是对于一些任务是能够提点的
-
2021.6 Botnet transformer 算子块引入于Backbone底层
-
2021.2.10 全网首发的YOLOV5魔改,ASFF检测头封装加入、注意力机制CBAM、CooRD、等注意力算子引入,并介绍了通用修改方式
目前是5.1版本,近期更新6.0(主要区别在于Tensorrt7和Tensorrt8的源码区别导致的,部分6.0SDK有变动) [Deepsteam YOLOV5 V5.0]https://github.com/positive666/Deepstream_Project/tree/main/Deepstream_Yolo
不间断保持更新和汇总实验:算子引入,LOSS改进,针对网络结构进行不同的任务的最优结构汇总,样本匹配实验,业务拓展等等 有针对于自己数据集或者公开数据集的效果请联系,目前有很多实验没做,平时工作繁忙,保证定期更新,也希望大家能一起探索最优结构和实验效果。
#Swintransformer2的修改 参考:https://github.com/ChristophReich1996/Swin-Transformer-V2/blob/main/swin_transformer_v2/model_parts.py
人脸工作可参考: yolov5_face repo: [https://github.com/deepcam-cn/yolov5-face.git] ocr 后面我会更新下自己的思路,但是目前个人使用比较好的还是DBnet.看后面时间更新项目