YOLOv5

开始之前

请在安装了 Python>=3.8PyTorch>=1.7 的环境下开始。有关 PyTorch 的安装,请参阅 https://pytorch.ac.cn/get-started/locally/。要安装 YOLOv5 依赖项,请

pip install -U ultralytics

模型描述

YOLO Model Comparison

Ultralytics YOLOv5 🚀 是一个尖端、最先进 (SOTA) 的模型,它建立在先前 YOLO 版本的成功基础之上,并引入了新功能和改进,以进一步提升性能和灵活性。YOLOv5 旨在实现快速、准确和易于使用,使其成为各种目标检测、实例分割和图像分类任务的绝佳选择。

我们希望这里的资源能帮助您充分利用 YOLOv5。请浏览 YOLOv5 文档 获取详细信息,在 GitHub 上提出问题以获得支持,并加入我们的 Discord 社区进行提问和讨论!

模型大小
(像素)
mAPval
50-95
mAPval
50
速度
CPU b1
(毫秒)
速度
V100 b1
(毫秒)
速度
V100 b32
(毫秒)
参数
(百万)
FLOPs
@640 (亿)
YOLOv5n64028.045.7456.30.61.94.5
YOLOv5s64037.456.8986.40.97.216.5
YOLOv5m64045.464.12248.21.721.249.0
YOLOv5l64049.067.343010.12.746.5109.1
YOLOv5x64050.768.976612.14.886.7205.7
         
YOLOv5n6128036.054.41538.12.13.24.6
YOLOv5s6128044.863.73858.23.612.616.8
YOLOv5m6128051.369.388711.16.835.750.0
YOLOv5l6128053.771.3178415.810.576.8111.4
YOLOv5x6
+ [TTA]
1280
1536
55.0
55.8
72.7
72.7
3136
26.2
19.4
140.7
209.8
表格备注

– 所有检查点均使用默认设置训练 300 个 epoch。Nano 和 Small 模型使用 [hyp.scratch-low.yaml](https://github.com/ultralytics/yolov5/blob/master/data/hyps/hyp.scratch-low.yaml) 超参数,所有其他模型使用 [hyp.scratch-high.yaml](https://github.com/ultralytics/yolov5/blob/master/data/hyps/hyp.scratch-high.yaml)。– **mAPval** 值是针对 [COCO val2017](http://cocodataset.org) 数据集上的单模型单尺度。
通过 `python val.py –data coco.yaml –img 640 –conf 0.001 –iou 0.65` 重现 – **速度** 是使用 [AWS p3.2xlarge](https://aws.amazon.com/ec2/instance-types/p3/) 实例对 COCO 验证图像进行平均的结果。不包括 NMS 时间(约 1 毫秒/图像)。
通过 `python val.py –data coco.yaml –img 640 –task speed –batch 1` 重现 – **TTA** [测试时增强](https://docs.ultralytics.com/yolov5/tutorials/test_time_augmentation) 包括反射和尺度增强。
通过 `python val.py –data coco.yaml –img 1536 –iou 0.7 –augment` 重现

从 PyTorch Hub 加载

此示例加载预训练的 YOLOv5s 模型并传入图像进行推理。YOLOv5 接受 URL文件名PILOpenCVNumpyPyTorch 输入,并以 torchpandasJSON 输出格式返回检测结果。有关详细信息,请参阅 YOLOv5 PyTorch Hub 教程

import torch

# Model
model = torch.hub.load('ultralytics/yolov5', 'yolov5s', pretrained=True)

# Images
imgs = ['https://ultralytics.com/images/zidane.jpg']  # batch of images

# Inference
results = model(imgs)

# Results
results.print()
results.save()  # or .show()

results.xyxy[0]  # img1 predictions (tensor)
results.pandas().xyxy[0]  # img1 predictions (pandas)
#      xmin    ymin    xmax   ymax  confidence  class    name
# 0  749.50   43.50  1148.0  704.5    0.874023      0  person
# 1  433.50  433.50   517.5  714.5    0.687988     27     tie
# 2  114.75  195.75  1095.0  708.0    0.624512      0  person
# 3  986.00  304.00  1028.0  420.0    0.286865     27     tie

引用

如果您在研究中使用 YOLOv5 或 YOLOv5u,请按如下方式引用 Ultralytics YOLOv5 仓库

@software{yolov5,
  title = {YOLOv5 by Ultralytics},
  author = {Glenn Jocher},
  year = {2020},
  version = {7.0},
  license = {AGPL-3.0},
  url = {https://github.com/ultralytics/yolov5},
  doi = {10.5281/zenodo.3908559},
  orcid = {0000-0001-5950-6979}
}

联系方式

对于 YOLOv5 的错误报告和功能请求,请访问 GitHub Issues,并加入我们的 Discord 社区进行提问和讨论!

Ultralytics YOLOv5 🚀 用于目标检测、实例分割和图像分类。

模型类型: 可脚本化 | 视觉
提交者: Ultralytics