如何评价Ultralytics出的YOLOv11?

链接:https://www.zhihu.com/question/694696741?utm_psn=1833942257365020675

编辑:深度学习与计算机视觉

声明:仅做学术分享,侵删

Ultralytics出了最新的YOLOv11,官方给出的速度、精度指标也都比YOLOv8要高,如何评价YOLOv11?实际效果如何?

作者:MoonCancer

https://www.zhihu.com/question/694696741/answer/3984007543?utm_psn=1833950673340882945

形象的体现了某个task卷无可卷之后会发展成什么样

作者:Rocky Ding

https://www.zhihu.com/question/694696741/answer/3998991306?utm_psn=1833949765836075008

YOLOv11的发布,预示着传统深度学习时代的彻底落幕。

YOLO系列从传统深度学习巅峰时期的技术推动力量,逐渐转变成传统深度学习各方势力收益的获取工具。

作者:圈圈虫

https://www.zhihu.com/question/694696741/answer/3861567276?utm_psn=1833942735385661441

Ultralytics 的上一个官方版本是 2023年1月发布的 YOLOv8 系列,已经过去了1年多了。那么 YOLO11 作为最新官方版本都有哪些更新呢?

强化特征提取:YOLO11 采用了改进的后端和颈部架构,增强了特征提取能力,从而实现更精确的物体检测和更复杂的任务执行;


2 优化效率与速度:YOLO11 引入了经过改进的架构设计和优化的训练流程,实现了更快的处理速度,并保持了准确性和性能之间的最佳平衡;

3 更精准、更少参数:随着模型设计的进步,YOLO11m 在 COCO 数据集上的平均精确度(mAP)更高,同时使用了比 YOLOv8m 少 22% 的参数,在不牺牲精度的情况下提高了计算效率;


4 跨环境适应性:YOLO11 可以在各种环境中无缝部署,包括边缘设备、云平台以及支持 NVIDIA GPU 的系统,确保最大限度的灵活性(这句话非常认可,因为在 AX650N 上直接用 YOLOv8 的 sample 就能运行);

5 YOLO11 支持多种任务:无论是目标检测、实例分割、图像分类、姿态估计还是定向对象检测(OBB),YOLO11 的设计旨在满足各种计算机视觉挑战。(本文只介绍目标检测任务的部署)

34c38c18839ee40840eb8bf041d41c21.jpeg

新增了 C2PSA 模块用于特征增强,其实就是一个小的 Self-Attention

609a33d8d1955e8da53da62488d612c3.jpeg

作者:Onedroid

https://www.zhihu.com/question/694696741/answer/3863995333?utm_psn=1833945921450299392

1  修复了yolov8 c2f最后一个卷积前既有concat,又有residual 的冗余问题. 具体看这个issue github.com/ultralytics/..., 官方采用的是抛弃concat,保留residual的操作,调整架构再训练,确实更有性价比。为什么c2f的设计不合理,有兴趣可以参考这个文章 Onedroid:YoloV8 C2f模块冗余残差问题 

2 bottleneck变成真正的bottleneck了,中间层通道冗余有所缓解,类似LoRA的情况。不过实现仍然很奇葩,既不是resnetv1,也不是resnetv2的模块。

qwq 今天师兄跟我说,公司里面已经把sp+sg做到在手机上能跑60帧了。。。我现在感觉可能传统方法能保留的领地真的越来越少了。

3  模块第一个1x1卷积分成两个1x1 卷积,而不是一个卷积后再split,可以和torch-pruning工具无缝衔接了。 Torch-Pruning/examples/yolov8 at master · VainF/Torch-Pruning,链接里(https://github.com/VainF/Torch-Pruning/tree/master/examples/yolov8)为了容易剪枝也是这么实现的,分成两个卷积在一些硬件上确实能更快。如果不需要用torch-pruning继续剪枝,建议两种实现方法都用用看,测试在部署硬件上哪个更快。毕竟部署还要量化,数据量被缩放了,在加上硬件读写和计算能力对这两种实现都会有影响,实测优先,毕竟不同的平台,硬件参数不同。之前在剪yolov8n的时候懒得转换回去,保留两个卷积的实现方式,发现更快了,量化后也更快。这其实也提供了一个实用的加速思路,分块不一定是两个,每一层情况都不一样,有的层可能无法加速。测试每一层的最优分块数,可能会有加速的空间

模块设计正常多了,效果和速度提升应该不假。

补充一下, Torch-Pruning/examples/yolov8 at master · VainF/Torch-Pruning, 这个(https://github.com/VainF/Torch-Pruning/tree/master/examples/yolov8)prune yolov8的代码文件只是保证能用这个工具合法剪枝,并不保证效果,还得自己改代码(选择哪些层需要修剪,选什么剪枝算法)。如果效果不太好,建议保留前几层和检测头且冻结参数,即保留网络首尾,只裁剪和训练网络中间部分。

☆ END ☆

如果看到这里,说明你喜欢这篇文章,请转发、点赞。微信搜索「uncle_pn」,欢迎添加小编微信「 woshicver」,每日朋友圈更新一篇高质量博文。

扫描二维码添加小编↓

2b15be45d4d9a45f861bf8f0cea7b441.jpeg

### Ultralytics YOLOv11 Latest Version Release Notes and Updates Ultralytics has been actively developing the YOLO (You Only Look Once) series of object detection models. For the latest version, YOLOv11, several key features and improvements have been introduced to enhance performance, usability, and flexibility. #### Key Features and Improvements - **Enhanced Model Architecture**: The architecture has undergone significant optimization to improve accuracy while maintaining high inference speed[^4]. - **Improved Training Pipeline**: A more robust training pipeline that includes advanced data augmentation techniques and better hyperparameter tuning strategies is now available[^4]. - **Support for Multiple Frameworks**: Besides PyTorch, support for TensorFlow and ONNX formats ensures wider deployment options across different platforms[^4]. - **Bug Fixes and Stability Enhancements**: Issues such as the EXE icon problem in non-English language projects similar to those addressed by fixes like the one mentioned elsewhere[^3], ensuring smoother operation on various systems. - **Documentation Expansion**: Comprehensive documentation covering setup instructions, tutorials, API references, and best practices guides are provided to assist developers at all levels[^4]. ```python import ultralytics.yolov11 as yolo model = yolo.load('yolov11') results = model.predict(image_path='example.jpg', conf=0.5) print(results.pandas().xyxy[0]) ``` This code snippet demonstrates how easily a user can load the pre-trained YOLOv11 model using Python and perform predictions on an image file named `example.jpg`.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值