探索 Ultralytics YOLO11 計算機視覺領域的關(guān)鍵突破 精華
在計算機視覺領域,目標檢測、實例分割、圖像分類等任務一直是研究和應用的熱點。Ultralytics YOLO系列以其高效、準確的特點在該領域占據(jù)重要地位。YOLO11作為該系列的最新迭代版本,帶來了一系列的改進和創(chuàng)新,進一步提升了模型在各種計算機視覺任務中的性能。
一、概述
YOLO11是Ultralytics YOLO系列實時目標檢測器的最新版本,它基于之前YOLO版本的顯著進步進行構(gòu)建,在架構(gòu)和訓練方法上引入了重大改進,從而成為了廣泛計算機視覺任務的通用選擇。
二、關(guān)鍵特性
1、增強的特征提取
YOLO11采用了改進的骨干網(wǎng)絡和頸部架構(gòu),這極大地增強了特征提取能力,從而實現(xiàn)更精確的目標檢測以及復雜任務的執(zhí)行。例如,在處理包含多個小目標的圖像時,能夠更清晰地捕捉到目標的特征,提高檢測的準確率。
2、效率和速度的優(yōu)化
- 其引入了精細的架構(gòu)設計和優(yōu)化的訓練流程,不僅能夠提供更快的處理速度,還在準確性和性能之間保持了最佳平衡。這使得它在實時性要求較高的應用場景中表現(xiàn)出色,如視頻監(jiān)控中的目標實時檢測。
- 通過對比不同模型在不同硬件上的運行速度數(shù)據(jù)可以清晰地看到這種優(yōu)勢。例如,在CPU ONNX環(huán)境下,YOLO11n的檢測速度為56.1 ± 0.8 ms,而在T4 TensorRT10環(huán)境下,速度更是達到了1.5 ± 0.0 ms。
3、更少參數(shù)實現(xiàn)更高精度
隨著模型設計的進步,YOLO11m在COCO數(shù)據(jù)集上實現(xiàn)了更高的平均精度(mAP),同時相比YOLOv8m使用的參數(shù)減少了22%。這不僅提高了計算效率,而且沒有犧牲準確性,使得它在資源受限的設備上也能有出色的表現(xiàn)。
4、環(huán)境適應性強
YOLO11可以無縫地部署在各種環(huán)境中,包括邊緣設備、云平臺以及支持NVIDIA GPU的系統(tǒng)。這種靈活性確保了它能在不同的應用場景中發(fā)揮作用,從移動設備上的實時檢測到云環(huán)境中的復雜分割任務都能勝任。
5、廣泛的任務支持
無論是目標檢測、實例分割、圖像分類、姿態(tài)估計還是有向目標檢測(OBB),YOLO11都能應對各種計算機視覺挑戰(zhàn)。例如,在姿態(tài)估計任務中,可以準確地檢測和跟蹤人體的關(guān)鍵點。
三、支持的任務和模式
1、目標檢測
YOLO11系列中的YOLO11模型(包括yolo11n.pt、yolo11s.pt、yolo11m.pt、yolo11l.pt、yolo11x.pt等變體)可用于目標檢測任務,在推理、驗證、訓練和導出等操作模式上都具有良好的兼容性。
2、實例分割
YOLO11 - seg系列模型用于實例分割任務,同樣涵蓋多種變體,能夠準確地檢測物體并描繪出它們的邊界。
3、圖像分類
YOLO11 - cls系列模型可對圖像進行分類,將其歸入預定義的類別中。
4、姿態(tài)估計
YOLO11 - pose系列模型用于姿態(tài)估計,能夠檢測和跟蹤人體的關(guān)鍵點。
5、有向目標檢測
YOLO11 - obb系列模型用于有向目標檢測,可以檢測帶有旋轉(zhuǎn)角度的物體,以提高檢測精度。
四、性能指標
- 目標檢測(COCO數(shù)據(jù)集):不同變體的模型在尺寸為640像素時,mAP ^{val 50 - 95}的值有所不同。例如,YOLO11n為39.5,YOLO11s為47.0,YOLO11m為51.5等。同時,不同硬件環(huán)境下的速度和參數(shù)數(shù)量也各有差異。
- 實例分割(COCO數(shù)據(jù)集):以640像素為例,各模型在box50 - 95和mask50 - 95的mAP值以及速度、參數(shù)和FLOPs等方面都有詳細的數(shù)據(jù)體現(xiàn)。
- 圖像分類(ImageNet數(shù)據(jù)集):在224像素尺寸下,不同模型的top1和top5準確率以及速度、參數(shù)和FLOPs等指標也各不相同。
- 姿態(tài)估計(COCO數(shù)據(jù)集):同樣在640像素時,各模型在pose50 - 95和pose50的mAP值以及速度、參數(shù)和FLOPs等方面有相應的數(shù)據(jù)。
- 有向目標檢測(DOTAv1數(shù)據(jù)集):在1024像素尺寸下,各模型的mAP ^{test50}以及速度、參數(shù)和FLOPs等指標也有明確的數(shù)據(jù)展示。
五、使用示例
1、Python示例
可以使用如下代碼進行模型加載、訓練和推理:
from ultralytics import YOLO
# 加載一個COCO預訓練的YOLO11n模型
model = YOLO("yolo11n.pt")
# 在COCO8示例數(shù)據(jù)集上訓練模型100個epoch
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# 使用YOLO11n模型在'bus.jpg'圖像上進行推理
results = model("path/to/bus.jpg")
2、CLI示例
也可以使用命令行直接運行模型:
# 加載一個COCO預訓練的YOLO11n模型并在COCO8示例數(shù)據(jù)集上訓練100個epoch
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640
# 加載一個COCO預訓練的YOLO11n模型并在'bus.jpg'圖像上進行推理
yolo predict model=yolo11n.pt source=path/to/bus.jpg
六、結(jié)語
Ultralytics YOLO11 以其卓越的性能和廣泛的適用性,在計算機視覺領域展現(xiàn)出了巨大的潛力。它的關(guān)鍵特性,如增強的特征提取、效率和速度的優(yōu)化、更少參數(shù)實現(xiàn)更高精度、環(huán)境適應性強以及廣泛的任務支持,使其成為了眾多計算機視覺任務的有力工具。
隨著計算機視覺技術(shù)的不斷發(fā)展,我們期待 YOLO11 能夠在更多的應用場景中發(fā)揮作用,為目標檢測、實例分割、圖像分類、姿態(tài)估計和有向目標檢測等任務提供更高效、更準確的解決方案。它的不斷演進和優(yōu)化,將進一步推動計算機視覺領域的進步,為我們帶來更多的創(chuàng)新和驚喜。
本文轉(zhuǎn)載自 ??小兵的AI視界??,作者: 小兵
