regnet_y_128gf¶
- torchvision.models.regnet_y_128gf(*, weights: Optional[RegNet_Y_128GF_Weights] = None, progress: bool = True, **kwargs: Any) RegNet[源代码]¶
- 根据设计网络设计空间构建 RegNetY_128GF 架构。 - 参数:
- weights ( - RegNet_Y_128GF_Weights,可选) – 要使用的预训练权重。有关更多详细信息和可能的值,请参见下面的- RegNet_Y_128GF_Weights。默认情况下,不使用任何预训练权重。
- progress (布尔值,可选) – 如果为 True,则将下载进度条显示到标准错误输出。默认为 True。 
- **kwargs – 传递给 - torchvision.models.regnet.RegNet或- torchvision.models.regnet.BlockParams类的参数。有关这些类的更多详细信息,请参阅源代码。
 
 - 类 torchvision.models.RegNet_Y_128GF_Weights(value)[源代码]¶
- 上面的模型构建器接受以下值作为 - weights参数。- RegNet_Y_128GF_Weights.DEFAULT等效于- RegNet_Y_128GF_Weights.IMAGENET1K_SWAG_E2E_V1。您还可以使用字符串,例如- weights='DEFAULT'或- weights='IMAGENET1K_SWAG_E2E_V1'。- RegNet_Y_128GF_Weights.IMAGENET1K_SWAG_E2E_V1: - 这些权重是通过端到端微调原始SWAG权重在 ImageNet-1K 数据上进行迁移学习而获得的。也可作为 - RegNet_Y_128GF_Weights.DEFAULT使用。- acc@1(在 ImageNet-1K 上) - 88.228 - acc@5(在 ImageNet-1K 上) - 98.682 - 最小尺寸 - 高度=1,宽度=1 - 类别 - 海葵、金鱼、大白鲨、……(省略 997 个) - 配方 - 许可证 - 参数数量 - 644812894 - GFLOPS - 374.57 - 文件大小 - 2461.6 MB - 推理变换可在 - RegNet_Y_128GF_Weights.IMAGENET1K_SWAG_E2E_V1.transforms中获得,并执行以下预处理操作:接受- PIL.Image、批处理- (B, C, H, W)和单个- (C, H, W)图像- torch.Tensor对象。图像使用- interpolation=InterpolationMode.BICUBIC调整到- resize_size=[384],然后进行- crop_size=[384]的中心裁剪。最后,将值首先重新缩放到- [0.0, 1.0],然后使用- mean=[0.485, 0.456, 0.406]和- std=[0.229, 0.224, 0.225]进行归一化。- RegNet_Y_128GF_Weights.IMAGENET1K_SWAG_LINEAR_V1: - 这些权重由原始冻结的SWAG主干权重和在其之上学习的线性分类器组成,该分类器在 ImageNet-1K 数据上进行训练。 - acc@1(在 ImageNet-1K 上) - 86.068 - acc@5(在 ImageNet-1K 上) - 97.844 - 最小尺寸 - 高度=1,宽度=1 - 类别 - 海葵、金鱼、大白鲨、……(省略 997 个) - 配方 - 许可证 - 参数数量 - 644812894 - GFLOPS - 127.52 - 文件大小 - 2461.6 MB - 推理变换可在 - RegNet_Y_128GF_Weights.IMAGENET1K_SWAG_LINEAR_V1.transforms中获得,并执行以下预处理操作:接受- PIL.Image、批处理- (B, C, H, W)和单个- (C, H, W)图像- torch.Tensor对象。图像使用- interpolation=InterpolationMode.BICUBIC调整到- resize_size=[224],然后进行- crop_size=[224]的中心裁剪。最后,将值首先重新缩放到- [0.0, 1.0],然后使用- mean=[0.485, 0.456, 0.406]和- std=[0.229, 0.224, 0.225]进行归一化。