快捷方式

vit_b_16

torchvision.models.vit_b_16(*, weights: Optional[ViT_B_16_Weights] = None, progress: bool = True, **kwargs: Any) VisionTransformer[源代码]

根据一张图片值 16x16 个词:用于大规模图像识别的 Transformer构建 vit_b_16 架构。

参数:
  • weights (ViT_B_16_Weights,可选) – 要使用的预训练权重。有关更多详细信息和可能的值,请参见下面的ViT_B_16_Weights。默认情况下,不使用任何预训练权重。

  • progress (布尔值可选) – 如果为 True,则将下载进度条显示到标准错误输出。默认为 True。

  • **kwargs – 传递给torchvision.models.vision_transformer.VisionTransformer基类的参数。有关此类的更多详细信息,请参阅源代码

torchvision.models.ViT_B_16_Weights(value)[源代码]

上面的模型构建器接受以下值作为weights参数。ViT_B_16_Weights.DEFAULT等效于ViT_B_16_Weights.IMAGENET1K_V1。您也可以使用字符串,例如weights='DEFAULT'weights='IMAGENET1K_V1'

ViT_B_16_Weights.IMAGENET1K_V1:

这些权重是使用DeIT的修改版训练配方从头开始训练的。也可作为ViT_B_16_Weights.DEFAULT使用。

acc@1(在 ImageNet-1K 上)

81.072

acc@5(在 ImageNet-1K 上)

95.318

类别

海鞘、金鱼、大白鲨、……(省略 997 个)

参数数量

86567656

最小尺寸

高度=224,宽度=224

配方

链接

GFLOPS

17.56

文件大小

330.3 MB

推理变换可在ViT_B_16_Weights.IMAGENET1K_V1.transforms中获得,并执行以下预处理操作:接受PIL.Image、批处理(B, C, H, W)和单个(C, H, W)图像torch.Tensor对象。图像使用interpolation=InterpolationMode.BILINEAR调整到resize_size=[256],然后进行crop_size=[224]的中心裁剪。最后,值首先重新缩放至[0.0, 1.0],然后使用mean=[0.485, 0.456, 0.406]std=[0.229, 0.224, 0.225]进行归一化。

ViT_B_16_Weights.IMAGENET1K_SWAG_E2E_V1:

这些权重通过端到端微调原始SWAG权重在 ImageNet-1K 数据上进行迁移学习获得。

acc@1(在 ImageNet-1K 上)

85.304

acc@5(在 ImageNet-1K 上)

97.65

类别

海鞘、金鱼、大白鲨、……(省略 997 个)

配方

链接

许可证

链接

参数数量

86859496

最小尺寸

高度=384,宽度=384

GFLOPS

55.48

文件大小

331.4 MB

推理变换可在ViT_B_16_Weights.IMAGENET1K_SWAG_E2E_V1.transforms中获得,并执行以下预处理操作:接受PIL.Image、批处理(B, C, H, W)和单个(C, H, W)图像torch.Tensor对象。图像使用interpolation=InterpolationMode.BICUBIC调整到resize_size=[384],然后进行crop_size=[384]的中心裁剪。最后,值首先重新缩放至[0.0, 1.0],然后使用mean=[0.485, 0.456, 0.406]std=[0.229, 0.224, 0.225]进行归一化。

ViT_B_16_Weights.IMAGENET1K_SWAG_LINEAR_V1:

这些权重由原始冻结的SWAG主干权重和在其之上学习的线性分类器组成,该分类器在 ImageNet-1K 数据上进行训练。

acc@1(在 ImageNet-1K 上)

81.886

acc@5(在 ImageNet-1K 上)

96.18

类别

海鞘、金鱼、大白鲨、……(省略 997 个)

配方

链接

许可证

链接

参数数量

86567656

最小尺寸

高度=224,宽度=224

GFLOPS

17.56

文件大小

330.3 MB

推理变换可在ViT_B_16_Weights.IMAGENET1K_SWAG_LINEAR_V1.transforms中获得,并执行以下预处理操作:接受PIL.Image、批处理(B, C, H, W)和单个(C, H, W)图像torch.Tensor对象。图像使用interpolation=InterpolationMode.BICUBIC调整到resize_size=[224],然后进行crop_size=[224]的中心裁剪。最后,值首先重新缩放至[0.0, 1.0],然后使用mean=[0.485, 0.456, 0.406]std=[0.229, 0.224, 0.225]进行归一化。

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取针对初学者和高级开发人员的深度教程

查看教程

资源

查找开发资源并获得问题的解答

查看资源