YOLOv5

开始之前

请从安装了 PyTorch>=1.7Python>=3.8 环境开始。有关安装 PyTorch 的说明,请参阅 https://pytorch.ac.cn/get-started/locally/。安装 YOLOv5 依赖项

pip install -U ultralytics

模型描述

YOLO Model Comparison

Ultralytics YOLOv5 🚀 是一款尖端的、处于行业领先水平(SOTA)的模型。它在前代 YOLO 版本的基础上,引入了多项新功能和改进,进一步提升了性能与灵活性。YOLOv5 设计旨在实现快速、准确且易于使用,是进行目标检测、实例分割和图像分类等多种任务的绝佳选择。

我们希望这里的资源能帮助您充分利用 YOLOv5。请浏览 YOLOv5 文档以了解详情,在 GitHub 上提出问题以获取支持,并加入我们的 Discord 社区进行提问与讨论!

模型尺寸
(像素)
mAPval
50-95
mAPval
50
速度
CPU b1
(毫秒)
速度
V100 b1
(毫秒)
速度
V100 b32
(毫秒)
参数
(百万)
FLOPs
@640 (B)
YOLOv5n64028.045.7456.30.61.94.5
YOLOv5s64037.456.8986.40.97.216.5
YOLOv5m64045.464.12248.21.721.249.0
YOLOv5l64049.067.343010.12.746.5109.1
YOLOv5x64050.768.976612.14.886.7205.7
         
YOLOv5n6128036.054.41538.12.13.24.6
YOLOv5s6128044.863.73858.23.612.616.8
YOLOv5m6128051.369.388711.16.835.750.0
YOLOv5l6128053.771.3178415.810.576.8111.4
YOLOv5x6
+ [TTA]
1280
1536
55.0
55.8
72.7
72.7
3136
26.2
19.4
140.7
209.8
表格说明

– 所有检查点均使用默认设置训练 300 个 epoch。Nano 和 Small 模型使用 [hyp.scratch-low.yaml](https://github.com/ultralytics/yolov5/blob/master/data/hyps/hyp.scratch-low.yaml) 超参数,其余模型使用 [hyp.scratch-high.yaml](https://github.com/ultralytics/yolov5/blob/master/data/hyps/hyp.scratch-high.yaml)。 – **mAPval** 数值是基于 [COCO val2017](http://cocodataset.org) 数据集进行的单模型、单尺度评估结果。
复现命令:`python val.py –data coco.yaml –img 640 –conf 0.001 –iou 0.65` – **速度** 是在 [AWS p3.2xlarge](https://aws.amazon.com/ec2/instance-types/p3/) 实例上对 COCO val 图像取平均所得。未包含 NMS 时间(约 1 毫秒/图)。
复现命令:`python val.py –data coco.yaml –img 640 –task speed –batch 1` – **TTA** [测试时增强](https://docs.ultralytics.com/yolov5/tutorials/test_time_augmentation) 包含翻转和尺度增强。
复现命令:`python val.py –data coco.yaml –img 1536 –iou 0.7 –augment`

从 PyTorch Hub 加载

此示例加载了一个预训练的 YOLOv5s 模型并输入图像进行推理。YOLOv5 接受 URL文件名PILOpenCVNumpyPyTorch 等格式的输入,并以 torchpandasJSON 格式返回检测结果。详情请参阅 YOLOv5 PyTorch Hub 教程

import torch

# Model
model = torch.hub.load('ultralytics/yolov5', 'yolov5s', pretrained=True)

# Images
imgs = ['https://ultralytics.com/images/zidane.jpg']  # batch of images

# Inference
results = model(imgs)

# Results
results.print()
results.save()  # or .show()

results.xyxy[0]  # img1 predictions (tensor)
results.pandas().xyxy[0]  # img1 predictions (pandas)
#      xmin    ymin    xmax   ymax  confidence  class    name
# 0  749.50   43.50  1148.0  704.5    0.874023      0  person
# 1  433.50  433.50   517.5  714.5    0.687988     27     tie
# 2  114.75  195.75  1095.0  708.0    0.624512      0  person
# 3  986.00  304.00  1028.0  420.0    0.286865     27     tie

引用

如果您在研究中使用 YOLOv5 或 YOLOv5u,请按以下方式引用 Ultralytics YOLOv5 存储库:

@software{yolov5,
  title = {YOLOv5 by Ultralytics},
  author = {Glenn Jocher},
  year = {2020},
  version = {7.0},
  license = {AGPL-3.0},
  url = {https://github.com/ultralytics/yolov5},
  doi = {10.5281/zenodo.3908559},
  orcid = {0000-0001-5950-6979}
}

联系方式

如需报告 YOLOv5 的 Bug 或提出功能请求,请访问 GitHub Issues,并加入我们的 Discord 社区进行提问与讨论!

Ultralytics YOLOv5 🚀 用于目标检测、实例分割和图像分类。

模型类型: 可脚本化 | 视觉
提交者: Ultralytics