ssdlite320_mobilenet_v3_large¶
- torchvision.models.detection.ssdlite320_mobilenet_v3_large(*, weights: Optional[SSDLite320_MobileNet_V3_Large_Weights] = None, progress: bool = True, num_classes: Optional[int] = None, weights_backbone: Optional[MobileNet_V3_Large_Weights] = MobileNet_V3_Large_Weights.IMAGENET1K_V1, trainable_backbone_layers: Optional[int] = None, norm_layer: Optional[Callable[[...], Module]] = None, **kwargs: Any) SSD[源代码]¶
- 具有 320x320 输入大小和 MobileNetV3 大型主干的 SSDlite 模型架构,如 搜索 MobileNetV3 和 MobileNetV2:反向残差和线性瓶颈 中所述。 - 警告 - 检测模块处于 Beta 阶段,不保证向后兼容性。 - 有关更多详细信息,请参阅 - ssd300_vgg16()。- 示例 - >>> model = torchvision.models.detection.ssdlite320_mobilenet_v3_large(weights=SSDLite320_MobileNet_V3_Large_Weights.DEFAULT) >>> model.eval() >>> x = [torch.rand(3, 320, 320), torch.rand(3, 500, 400)] >>> predictions = model(x) - 参数:
- weights ( - SSDLite320_MobileNet_V3_Large_Weights,可选) – 要使用的预训练权重。有关更多详细信息和可能的值,请参见下面的- SSDLite320_MobileNet_V3_Large_Weights。默认情况下,不使用任何预训练权重。
- progress (bool,可选) – 如果为 True,则会将下载进度条显示到 stderr。默认值为 True。 
- num_classes (int,可选) – 模型的输出类别数(包括背景)。 
- weights_backbone ( - MobileNet_V3_Large_Weights,可选) – 主干的预训练权重。
- trainable_backbone_layers (int,可选) – 从最后一个块开始的可训练(未冻结)层数。有效值介于 0 到 6 之间,其中 6 表示所有主干层都是可训练的。如果传递 - None(默认值),则此值设置为 6。
- norm_layer (可调用对象,可选) – 指定要使用的规范化层的模块。 
- **kwargs – 传递给 - torchvision.models.detection.ssd.SSD基类的参数。有关此类的更多详细信息,请参阅 源代码。
 
 - class torchvision.models.detection.SSDLite320_MobileNet_V3_Large_Weights(value)[源代码]¶
- 上面的模型构建器接受以下值作为 - weights参数。- SSDLite320_MobileNet_V3_Large_Weights.DEFAULT等效于- SSDLite320_MobileNet_V3_Large_Weights.COCO_V1。您还可以使用字符串,例如- weights='DEFAULT'或- weights='COCO_V1'。- SSDLite320_MobileNet_V3_Large_Weights.COCO_V1: - 这些权重是通过遵循与论文中类似的训练方案生成的。也可以称为 - SSDLite320_MobileNet_V3_Large_Weights.DEFAULT。- box_map(在 COCO-val2017 上) - 21.3 - num_params - 3440060 - categories - __background__、person、bicycle、…(省略了 88 个) - min_size - height=1,width=1 - recipe - GFLOPS - 0.58 - 文件大小 - 13.4 MB - 推理转换位于 - SSDLite320_MobileNet_V3_Large_Weights.COCO_V1.transforms,并执行以下预处理操作:接受- PIL.Image、批处理- (B, C, H, W)和单个- (C, H, W)图像- torch.Tensor对象。图像将被重新缩放至- [0.0, 1.0]。