ImageClassifierPreprocessor
类keras_hub.models.ImageClassifierPreprocessor(image_converter=None, **kwargs)
图像分类预处理层的基类。
ImageClassifierPreprocessor
任务封装了 keras_hub.layers.ImageConverter
以创建用于图像分类任务的预处理层。它旨在与 keras_hub.models.ImageClassifier
任务配对使用。
所有 ImageClassifierPreprocessor
都接收三个输入:x
、y
和 sample_weight
。第一个输入 x
应该始终包含在内。它可以是图像或图像批次。参见下面的示例。y
和 sample_weight
是可选输入,将原样传递。通常,y
是分类标签,而 sample_weight
不会提供。
如果提供了标签,该层将输出 x
或 (x, y)
元组;如果提供了标签和样本权重,则输出 (x, y, sample_weight)
元组。x
将是在应用所有模型预处理后的输入图像。
所有 ImageClassifierPreprocessor
任务都包含一个 from_preset()
构造函数,可用于加载预训练配置和词汇表。您可以直接在此基类上调用 from_preset()
构造函数,在这种情况下,将自动实例化适合您模型的正确类。
示例。
preprocessor = keras_hub.models.ImageClassifierPreprocessor.from_preset(
"resnet_50",
)
# Resize a single image for resnet 50.
x = np.random.randint(0, 256, (512, 512, 3))
x = preprocessor(x)
# Resize a labeled image.
x, y = np.random.randint(0, 256, (512, 512, 3)), 1
x, y = preprocessor(x, y)
# Resize a batch of labeled images.
x, y = [
np.random.randint(0, 256, (512, 512, 3)),
np.zeros((512, 512, 3))
], [1, 0]
x, y = preprocessor(x, y)
# Use a [`tf.data.Dataset`](https://tensorflowcn.cn/api_docs/python/tf/data/Dataset).
ds = tf.data.Dataset.from_tensor_slices((x, y)).batch(2)
ds = ds.map(preprocessor, num_parallel_calls=tf.data.AUTOTUNE)
from_preset
方法ImageClassifierPreprocessor.from_preset(
preset, config_file="preprocessor.json", **kwargs
)
从模型预设实例化一个 keras_hub.models.Preprocessor
。
预设是一个包含配置、权重和其他文件资产的目录,用于保存和加载预训练模型。preset
可以作为以下之一传递:
'bert_base_en'
'kaggle://user/bert/keras/bert_base_en'
'hf://user/bert_base_en'
'./bert_base_en'
对于任何 Preprocessor
子类,您可以运行 cls.presets.keys()
来列出该类上所有可用的内置预设。
由于一个给定模型通常有多个预处理类,因此应在特定的子类上调用此方法,例如 keras_hub.models.BertTextClassifierPreprocessor.from_preset()
。
参数
示例
# Load a preprocessor for Gemma generation.
preprocessor = keras_hub.models.CausalLMPreprocessor.from_preset(
"gemma_2b_en",
)
# Load a preprocessor for Bert classification.
preprocessor = keras_hub.models.TextClassifierPreprocessor.from_preset(
"bert_base_en",
)
预设 | 参数 | 描述 |
---|---|---|
csp_resnext_50_ra_imagenet | 20.57M | 在随机增强的 ImageNet 1k 数据集上预训练的 CSP-ResNeXt(交叉阶段部分)图像分类模型,分辨率为 256x256。 |
csp_resnet_50_ra_imagenet | 21.62M | 在随机增强的 ImageNet 1k 数据集上预训练的 CSP-ResNet(交叉阶段部分)图像分类模型,分辨率为 256x256。 |
csp_darknet_53_ra_imagenet | 27.64M | 在随机增强的 ImageNet 1k 数据集上预训练的 CSP-DarkNet(交叉阶段部分)图像分类模型,分辨率为 256x256。 |
darknet_53_imagenet | 41.61M | 在 ImageNet 1k 数据集上预训练的 DarkNet 图像分类模型,分辨率为 256x256。 |
densenet_121_imagenet | 7.04M | 121 层 DenseNet 模型,在 224x224 分辨率的 ImageNet 1k 数据集上预训练。 |
densenet_169_imagenet | 12.64M | 169 层 DenseNet 模型,在 224x224 分辨率的 ImageNet 1k 数据集上预训练。 |
densenet_201_imagenet | 18.32M | 201 层 DenseNet 模型,在 224x224 分辨率的 ImageNet 1k 数据集上预训练。 |
efficientnet_lite0_ra_imagenet | 4.65M | EfficientNet-Lite 模型在 ImageNet 1k 数据集上使用 RandAugment 策略进行微调。 |
efficientnet_b0_ra_imagenet | 5.29M | EfficientNet B0 模型在 ImageNet 1k 数据集上使用 RandAugment 策略进行预训练。 |
efficientnet_b0_ra4_e3600_r224_imagenet | 5.29M | EfficientNet B0 模型由 Ross Wightman 在 ImageNet 1k 数据集上预训练。使用 timm 脚本训练,超参数受 MobileNet-V4 small、timm 的通用超参数和“ResNet Strikes Back”的启发。 |
efficientnet_es_ra_imagenet | 5.44M | EfficientNet-EdgeTPU Small 模型在 ImageNet 1k 数据集上使用 RandAugment 策略进行训练。 |
efficientnet_em_ra2_imagenet | 6.90M | EfficientNet-EdgeTPU Medium 模型在 ImageNet 1k 数据集上使用 RandAugment2 策略进行训练。 |
efficientnet_b1_ft_imagenet | 7.79M | EfficientNet B1 模型在 ImageNet 1k 数据集上进行微调。 |
efficientnet_b1_ra4_e3600_r240_imagenet | 7.79M | EfficientNet B1 模型由 Ross Wightman 在 ImageNet 1k 数据集上预训练。使用 timm 脚本训练,超参数受 MobileNet-V4 small、timm 的通用超参数和“ResNet Strikes Back”的启发。 |
efficientnet_b2_ra_imagenet | 9.11M | EfficientNet B2 模型在 ImageNet 1k 数据集上使用 RandAugment 策略进行预训练。 |
efficientnet_el_ra_imagenet | 10.59M | EfficientNet-EdgeTPU Large 模型在 ImageNet 1k 数据集上使用 RandAugment 策略进行训练。 |
efficientnet_b3_ra2_imagenet | 12.23M | EfficientNet B3 模型在 ImageNet 1k 数据集上使用 RandAugment2 策略进行预训练。 |
efficientnet2_rw_t_ra2_imagenet | 13.65M | EfficientNet-v2 Tiny 模型在 ImageNet 1k 数据集上使用 RandAugment2 策略进行训练。 |
efficientnet_b4_ra2_imagenet | 19.34M | EfficientNet B4 模型在 ImageNet 1k 数据集上使用 RandAugment2 策略进行预训练。 |
efficientnet2_rw_s_ra2_imagenet | 23.94M | EfficientNet-v2 Small 模型在 ImageNet 1k 数据集上使用 RandAugment2 策略进行训练。 |
efficientnet_b5_sw_imagenet | 30.39M | EfficientNet B5 模型由 Ross Wightman 在 ImageNet 12k 数据集上预训练。基于 Swin Transformer 训练/预训练策略,并进行了修改(与 DeiT 和 ConvNeXt 策略相关)。 |
efficientnet_b5_sw_ft_imagenet | 30.39M | EfficientNet B5 模型由 Ross Wightman 在 ImageNet 12k 数据集上预训练,并在 ImageNet-1k 上微调。基于 Swin Transformer 训练/预训练策略,并进行了修改(与 DeiT 和 ConvNeXt 策略相关)。 |
efficientnet2_rw_m_agc_imagenet | 53.24M | EfficientNet-v2 Medium 模型在 ImageNet 1k 数据集上使用自适应梯度裁剪进行训练。 |
mit_b0_ade20k_512 | 3.32M | 具有 8 个 Transformer 块的 MiT (MixTransformer) 模型。 |
mit_b0_cityscapes_1024 | 3.32M | 具有 8 个 Transformer 块的 MiT (MixTransformer) 模型。 |
mit_b1_ade20k_512 | 13.16M | 具有 8 个 Transformer 块的 MiT (MixTransformer) 模型。 |
mit_b1_cityscapes_1024 | 13.16M | 具有 8 个 Transformer 块的 MiT (MixTransformer) 模型。 |
mit_b2_ade20k_512 | 24.20M | 具有 16 个 Transformer 块的 MiT (MixTransformer) 模型。 |
mit_b2_cityscapes_1024 | 24.20M | 具有 16 个 Transformer 块的 MiT (MixTransformer) 模型。 |
mit_b3_ade20k_512 | 44.08M | 具有 28 个 Transformer 块的 MiT (MixTransformer) 模型。 |
mit_b3_cityscapes_1024 | 44.08M | 具有 28 个 Transformer 块的 MiT (MixTransformer) 模型。 |
mit_b4_ade20k_512 | 60.85M | 具有 41 个 Transformer 块的 MiT (MixTransformer) 模型。 |
mit_b4_cityscapes_1024 | 60.85M | 具有 41 个 Transformer 块的 MiT (MixTransformer) 模型。 |
mit_b5_ade20k_640 | 81.45M | 具有 52 个 Transformer 块的 MiT (MixTransformer) 模型。 |
mit_b5_cityscapes_1024 | 81.45M | 具有 52 个 Transformer 块的 MiT (MixTransformer) 模型。 |
mobilenet_v3_small_050_imagenet | 278.78K | 在 224x224 分辨率的 ImageNet 1k 数据集上预训练的小型 Mobilenet V3 模型。具有一半通道乘数。 |
mobilenet_v3_small_100_imagenet | 939.12K | 在 224x224 分辨率的 ImageNet 1k 数据集上预训练的小型 Mobilenet V3 模型。具有基线通道乘数。 |
mobilenet_v3_large_100_imagenet | 3.00M | 在 224x224 分辨率的 ImageNet 1k 数据集上预训练的大型 Mobilenet V3 模型。具有基线通道乘数。 |
mobilenet_v3_large_100_imagenet_21k | 3.00M | 在 224x224 分辨率的 ImageNet 21k 数据集上预训练的大型 Mobilenet V3 模型。具有基线通道乘数。 |
resnet_18_imagenet | 11.19M | 18 层 ResNet 模型,在 224x224 分辨率的 ImageNet 1k 数据集上预训练。 |
resnet_vd_18_imagenet | 11.72M | 18 层 ResNetVD(带技巧包的 ResNet)模型,在 224x224 分辨率的 ImageNet 1k 数据集上预训练。 |
resnet_vd_34_imagenet | 21.84M | 34 层 ResNetVD(带技巧包的 ResNet)模型,在 224x224 分辨率的 ImageNet 1k 数据集上预训练。 |
resnet_50_imagenet | 23.56M | 50 层 ResNet 模型,在 224x224 分辨率的 ImageNet 1k 数据集上预训练。 |
resnet_v2_50_imagenet | 23.56M | 50 层 ResNetV2 模型,在 224x224 分辨率的 ImageNet 1k 数据集上预训练。 |
resnet_vd_50_imagenet | 25.63M | 50 层 ResNetVD(带技巧包的 ResNet)模型,在 224x224 分辨率的 ImageNet 1k 数据集上预训练。 |
resnet_vd_50_ssld_imagenet | 25.63M | 50 层 ResNetVD(带技巧包的 ResNet)模型,在 224x224 分辨率的 ImageNet 1k 数据集上预训练,并采用知识蒸馏。 |
resnet_vd_50_ssld_v2_imagenet | 25.63M | 50 层 ResNetVD(带技巧包的 ResNet)模型,在 224x224 分辨率的 ImageNet 1k 数据集上预训练,并采用知识蒸馏和 AutoAugment。 |
resnet_vd_50_ssld_v2_fix_imagenet | 25.63M | 50 层 ResNetVD(带技巧包的 ResNet)模型,在 224x224 分辨率的 ImageNet 1k 数据集上预训练,并采用知识蒸馏、AutoAugment 和额外的分类头微调。 |
resnet_101_imagenet | 42.61M | 101 层 ResNet 模型,在 224x224 分辨率的 ImageNet 1k 数据集上预训练。 |
resnet_v2_101_imagenet | 42.61M | 101 层 ResNetV2 模型,在 224x224 分辨率的 ImageNet 1k 数据集上预训练。 |
resnet_vd_101_imagenet | 44.67M | 101 层 ResNetVD(带技巧包的 ResNet)模型,在 224x224 分辨率的 ImageNet 1k 数据集上预训练。 |
resnet_vd_101_ssld_imagenet | 44.67M | 101 层 ResNetVD(带技巧包的 ResNet)模型,在 224x224 分辨率的 ImageNet 1k 数据集上预训练,并采用知识蒸馏。 |
resnet_152_imagenet | 58.30M | 152 层 ResNet 模型,在 224x224 分辨率的 ImageNet 1k 数据集上预训练。 |
resnet_vd_152_imagenet | 60.36M | 152 层 ResNetVD(带技巧包的 ResNet)模型,在 224x224 分辨率的 ImageNet 1k 数据集上预训练。 |
resnet_vd_200_imagenet | 74.93M | 200 层 ResNetVD(带技巧包的 ResNet)模型,在 224x224 分辨率的 ImageNet 1k 数据集上预训练。 |
vgg_11_imagenet | 9.22M | 11 层 VGG 模型,在 224x224 分辨率的 ImageNet 1k 数据集上预训练。 |
vgg_13_imagenet | 9.40M | 13 层 VGG 模型,在 224x224 分辨率的 ImageNet 1k 数据集上预训练。 |
vgg_16_imagenet | 14.71M | 16 层 VGG 模型,在 224x224 分辨率的 ImageNet 1k 数据集上预训练。 |
vgg_19_imagenet | 20.02M | 19 层 VGG 模型,在 224x224 分辨率的 ImageNet 1k 数据集上预训练。 |
vit_base_patch16_224_imagenet | 85.80M | ViT-B16 模型,在 224x224 图像分辨率的 ImageNet 1k 数据集上预训练。 |
vit_base_patch16_224_imagenet21k | 85.80M | ViT-B16 骨干网络,在 224x224 图像分辨率的 ImageNet 21k 数据集上预训练。 |
vit_base_patch16_384_imagenet | 86.09M | ViT-B16 模型,在 384x384 图像分辨率的 ImageNet 1k 数据集上预训练。 |
vit_base_patch32_224_imagenet21k | 87.46M | ViT-B32 骨干网络,在 224x224 图像分辨率的 ImageNet 21k 数据集上预训练。 |
vit_base_patch32_384_imagenet | 87.53M | ViT-B32 模型,在 384x384 图像分辨率的 ImageNet 1k 数据集上预训练。 |
vit_large_patch16_224_imagenet | 303.30M | ViT-L16 模型,在 224x224 图像分辨率的 ImageNet 1k 数据集上预训练。 |
vit_large_patch16_224_imagenet21k | 303.30M | ViT-L16 骨干网络,在 224x224 图像分辨率的 ImageNet 21k 数据集上预训练。 |
vit_large_patch16_384_imagenet | 303.69M | ViT-L16 模型,在 384x384 图像分辨率的 ImageNet 1k 数据集上预训练。 |
vit_large_patch32_224_imagenet21k | 305.51M | ViT-L32 骨干网络,在 224x224 图像分辨率的 ImageNet 21k 数据集上预训练。 |
vit_large_patch32_384_imagenet | 305.61M | ViT-L32 模型,在 384x384 图像分辨率的 ImageNet 1k 数据集上预训练。 |
vit_huge_patch14_224_imagenet21k | 630.76M | ViT-H14 骨干网络,在 224x224 图像分辨率的 ImageNet 21k 数据集上预训练。 |
xception_41_imagenet | 20.86M | 41 层 Xception 模型,在 ImageNet 1k 上预训练。 |
save_to_preset
方法ImageClassifier.save_to_preset(preset_dir, max_shard_size=10)
将任务保存到预设目录。
参数
int
或 float
。每个分片文件的最大大小(以 GB 为单位)。如果为 None
,则不进行分片。默认为 10
。