KerasHub: 预训练模型 / API 文档 / 建模 API / ImageClassifierPreprocessor

ImageClassifierPreprocessor

[源代码]

ImageClassifierPreprocessor

keras_hub.models.ImageClassifierPreprocessor(image_converter=None, **kwargs)

图像分类预处理层的基类。

ImageClassifierPreprocessor 任务封装了一个 keras_hub.layers.ImageConverter,用于创建图像分类任务的预处理层。它旨在与 keras_hub.models.ImageClassifier 任务配对使用。

所有 ImageClassifierPreprocessor 接受三个输入:xysample_weight。第一个输入 x 应该始终包含。它可以是单张图片或一批图片。请参阅下面的示例。ysample_weight 是可选输入,将原样传递。通常,y 将是分类标签,而 sample_weight 不会提供。

该层将输出 x,如果提供了标签,则输出一个 (x, y) 元组,如果同时提供了标签和样本权重,则输出一个 (x, y, sample_weight) 元组。应用所有模型预处理后,x 将是输入图片。

所有 ImageClassifierPreprocessor 任务都包含一个 from_preset() 构造函数,可用于加载预训练配置和词汇表。您可以在这个基类上直接调用 from_preset() 构造函数,在这种情况下,将自动实例化您的模型对应的正确类。

示例。

preprocessor = keras_hub.models.ImageClassifierPreprocessor.from_preset(
    "resnet_50",
)

# Resize a single image for resnet 50.
x = np.random.randint(0, 256, (512, 512, 3))
x = preprocessor(x)

# Resize a labeled image.
x, y = np.random.randint(0, 256, (512, 512, 3)), 1
x, y = preprocessor(x, y)

# Resize a batch of labeled images.
x, y = [
    np.random.randint(0, 256, (512, 512, 3)),
    np.zeros((512, 512, 3))
], [1, 0]
x, y = preprocessor(x, y)

# Use a [`tf.data.Dataset`](https://tensorflowcn.cn/api_docs/python/tf/data/Dataset).
ds = tf.data.Dataset.from_tensor_slices((x, y)).batch(2)
ds = ds.map(preprocessor, num_parallel_calls=tf.data.AUTOTUNE)

[源代码]

from_preset 方法

ImageClassifierPreprocessor.from_preset(
    preset, config_file="preprocessor.json", **kwargs
)

从模型预设实例化一个 keras_hub.models.Preprocessor

预设是一个包含配置、权重和其他文件资产的目录,用于保存和加载预训练模型。preset 可以作为以下之一传递:

  1. 一个内置的预设标识符,例如 'bert_base_en'
  2. 一个 Kaggle Models 句柄,例如 'kaggle://user/bert/keras/bert_base_en'
  3. 一个 Hugging Face 句柄,例如 'hf://user/bert_base_en'
  4. 本地预设目录的路径,例如 './bert_base_en'

对于任何 Preprocessor 子类,您可以运行 cls.presets.keys() 来列出该类上所有可用的内置预设。

由于一个给定的模型通常有多个预处理类,此方法应在特定的子类上调用,例如 keras_hub.models.BertTextClassifierPreprocessor.from_preset()

参数

  • preset: 字符串。一个内置的预设标识符、一个 Kaggle Models 句柄、一个 Hugging Face 句柄或本地目录的路径。

示例

# Load a preprocessor for Gemma generation.
preprocessor = keras_hub.models.CausalLMPreprocessor.from_preset(
    "gemma_2b_en",
)

# Load a preprocessor for Bert classification.
preprocessor = keras_hub.models.TextClassifierPreprocessor.from_preset(
    "bert_base_en",
)
预设 参数 描述
csp_darknet_53_ra_imagenet 26.65M 一个 CSP-DarkNet (Cross-Stage-Partial) 图像分类模型,在 Randomly Augmented ImageNet 1k 数据集上预训练,分辨率为 224x224。
densenet_121_imagenet 7.04M 121 层 DenseNet 模型,在 ImageNet 1k 数据集上预训练,分辨率为 224x224。
densenet_169_imagenet 12.64M 169 层 DenseNet 模型,在 ImageNet 1k 数据集上预训练,分辨率为 224x224。
densenet_201_imagenet 18.32M 201 层 DenseNet 模型,在 ImageNet 1k 数据集上预训练,分辨率为 224x224。
efficientnet_lite0_ra_imagenet 4.65M EfficientNet-Lite 模型,在 ImageNet 1k 数据集上微调,使用 RandAugment 配方。
efficientnet_b0_ra_imagenet 5.29M EfficientNet B0 模型,在 ImageNet 1k 数据集上预训练,使用 RandAugment 配方。
efficientnet_b0_ra4_e3600_r224_imagenet 5.29M EfficientNet B0 模型,由 Ross Wightman 在 ImageNet 1k 数据集上预训练。使用 timm 脚本训练,超参数受到 MobileNet-V4 small 启发,并与 timm 和 'ResNet Strikes Back' 的常用超参数混合。
efficientnet_es_ra_imagenet 5.44M EfficientNet-EdgeTPU Small 模型,在 ImageNet 1k 数据集上训练,使用 RandAugment 配方。
efficientnet_em_ra2_imagenet 6.90M EfficientNet-EdgeTPU Medium 模型,在 ImageNet 1k 数据集上训练,使用 RandAugment2 配方。
efficientnet_b1_ft_imagenet 7.79M EfficientNet B1 模型,在 ImageNet 1k 数据集上微调。
efficientnet_b1_ra4_e3600_r240_imagenet 7.79M EfficientNet B1 模型,由 Ross Wightman 在 ImageNet 1k 数据集上预训练。使用 timm 脚本训练,超参数受到 MobileNet-V4 small 启发,并与 timm 和 'ResNet Strikes Back' 的常用超参数混合。
efficientnet_b2_ra_imagenet 9.11M EfficientNet B2 模型,在 ImageNet 1k 数据集上预训练,使用 RandAugment 配方。
efficientnet_el_ra_imagenet 10.59M EfficientNet-EdgeTPU Large 模型,在 ImageNet 1k 数据集上训练,使用 RandAugment 配方。
efficientnet_b3_ra2_imagenet 12.23M EfficientNet B3 模型,在 ImageNet 1k 数据集上预训练,使用 RandAugment2 配方。
efficientnet2_rw_t_ra2_imagenet 13.65M EfficientNet-v2 Tiny 模型,在 ImageNet 1k 数据集上训练,使用 RandAugment2 配方。
efficientnet_b4_ra2_imagenet 19.34M EfficientNet B4 模型,在 ImageNet 1k 数据集上预训练,使用 RandAugment2 配方。
efficientnet2_rw_s_ra2_imagenet 23.94M EfficientNet-v2 Small 模型,在 ImageNet 1k 数据集上训练,使用 RandAugment2 配方。
efficientnet_b5_sw_imagenet 30.39M EfficientNet B5 模型,由 Ross Wightman 在 ImageNet 12k 数据集上预训练。基于 Swin Transformer 训练/预训练配方并进行了修改(与 DeiT 和 ConvNeXt 配方均相关)。
efficientnet_b5_sw_ft_imagenet 30.39M EfficientNet B5 模型,由 Ross Wightman 在 ImageNet 12k 数据集上预训练,并在 ImageNet-1k 上微调。基于 Swin Transformer 训练/预训练配方并进行了修改(与 DeiT 和 ConvNeXt 配方均相关)。
efficientnet2_rw_m_agc_imagenet 53.24M EfficientNet-v2 Medium 模型,在 ImageNet 1k 数据集上训练,使用自适应梯度裁剪。
mit_b0_ade20k_512 3.32M MiT (MixTransformer) 模型,包含 8 个 Transformer 块。
mit_b0_cityscapes_1024 3.32M MiT (MixTransformer) 模型,包含 8 个 Transformer 块。
mit_b1_ade20k_512 13.16M MiT (MixTransformer) 模型,包含 8 个 Transformer 块。
mit_b1_cityscapes_1024 13.16M MiT (MixTransformer) 模型,包含 8 个 Transformer 块。
mit_b2_ade20k_512 24.20M MiT (MixTransformer) 模型,包含 16 个 Transformer 块。
mit_b2_cityscapes_1024 24.20M MiT (MixTransformer) 模型,包含 16 个 Transformer 块。
mit_b3_ade20k_512 44.08M MiT (MixTransformer) 模型,包含 28 个 Transformer 块。
mit_b3_cityscapes_1024 44.08M MiT (MixTransformer) 模型,包含 28 个 Transformer 块。
mit_b4_ade20k_512 60.85M MiT (MixTransformer) 模型,包含 41 个 Transformer 块。
mit_b4_cityscapes_1024 60.85M MiT (MixTransformer) 模型,包含 41 个 Transformer 块。
mit_b5_ade20k_640 81.45M MiT (MixTransformer) 模型,包含 52 个 Transformer 块。
mit_b5_cityscapes_1024 81.45M MiT (MixTransformer) 模型,包含 52 个 Transformer 块。
mobilenet_v3_small_050_imagenet 278.78K Small Mobilenet V3 模型,在 ImageNet 1k 数据集上预训练,分辨率为 224x224。通道乘数为一半。
mobilenet_v3_small_100_imagenet 939.12K Small Mobilenet V3 模型,在 ImageNet 1k 数据集上预训练,分辨率为 224x224。通道乘数为基线值。
mobilenet_v3_large_100_imagenet 3.00M Large Mobilenet V3 模型,在 ImageNet 1k 数据集上预训练,分辨率为 224x224。通道乘数为基线值。
mobilenet_v3_large_100_imagenet_21k 3.00M Large Mobilenet V3 模型,在 ImageNet 21k 数据集上预训练,分辨率为 224x224。通道乘数为基线值。
resnet_18_imagenet 11.19M 18 层 ResNet 模型,在 ImageNet 1k 数据集上预训练,分辨率为 224x224。
resnet_vd_18_imagenet 11.72M 18 层 ResNetVD (含一系列技巧的 ResNet) 模型,在 ImageNet 1k 数据集上预训练,分辨率为 224x224。
resnet_vd_34_imagenet 21.84M 34 层 ResNetVD (含一系列技巧的 ResNet) 模型,在 ImageNet 1k 数据集上预训练,分辨率为 224x224。
resnet_50_imagenet 23.56M 50 层 ResNet 模型,在 ImageNet 1k 数据集上预训练,分辨率为 224x224。
resnet_v2_50_imagenet 23.56M 50 层 ResNetV2 模型,在 ImageNet 1k 数据集上预训练,分辨率为 224x224。
resnet_vd_50_imagenet 25.63M 50 层 ResNetVD (含一系列技巧的 ResNet) 模型,在 ImageNet 1k 数据集上预训练,分辨率为 224x224。
resnet_vd_50_ssld_imagenet 25.63M 50 层 ResNetVD (含一系列技巧的 ResNet) 模型,在 ImageNet 1k 数据集上预训练,分辨率为 224x224,使用了知识蒸馏。
resnet_vd_50_ssld_v2_imagenet 25.63M 50 层 ResNetVD (含一系列技巧的 ResNet) 模型,在 ImageNet 1k 数据集上预训练,分辨率为 224x224,使用了知识蒸馏和 AutoAugment。
resnet_vd_50_ssld_v2_fix_imagenet 25.63M 50 层 ResNetVD (含一系列技巧的 ResNet) 模型,在 ImageNet 1k 数据集上预训练,分辨率为 224x224,使用了知识蒸馏、AutoAugment 并对分类头进行了额外微调。
resnet_101_imagenet 42.61M 101 层 ResNet 模型,在 ImageNet 1k 数据集上预训练,分辨率为 224x224。
resnet_v2_101_imagenet 42.61M 101 层 ResNetV2 模型,在 ImageNet 1k 数据集上预训练,分辨率为 224x224。
resnet_vd_101_imagenet 44.67M 101 层 ResNetVD (含一系列技巧的 ResNet) 模型,在 ImageNet 1k 数据集上预训练,分辨率为 224x224。
resnet_vd_101_ssld_imagenet 44.67M 101 层 ResNetVD (含一系列技巧的 ResNet) 模型,在 ImageNet 1k 数据集上预训练,分辨率为 224x224,使用了知识蒸馏。
resnet_152_imagenet 58.30M 152 层 ResNet 模型,在 ImageNet 1k 数据集上预训练,分辨率为 224x224。
resnet_vd_152_imagenet 60.36M 152 层 ResNetVD (含一系列技巧的 ResNet) 模型,在 ImageNet 1k 数据集上预训练,分辨率为 224x224。
resnet_vd_200_imagenet 74.93M 200 层 ResNetVD (含一系列技巧的 ResNet) 模型,在 ImageNet 1k 数据集上预训练,分辨率为 224x224。
vgg_11_imagenet 9.22M 11 层 VGG 模型,在 ImageNet 1k 数据集上预训练,分辨率为 224x224。
vgg_13_imagenet 9.40M 13 层 VGG 模型,在 ImageNet 1k 数据集上预训练,分辨率为 224x224。
vgg_16_imagenet 14.71M 16 层 VGG 模型,在 ImageNet 1k 数据集上预训练,分辨率为 224x224。
vgg_19_imagenet 20.02M 19 层 VGG 模型,在 ImageNet 1k 数据集上预训练,分辨率为 224x224。
vit_base_patch16_224_imagenet 85.80M ViT-B16 模型,在 ImageNet 1k 数据集上预训练,图像分辨率为 224x224
vit_base_patch16_224_imagenet21k 85.80M ViT-B16 主干网络,在 ImageNet 21k 数据集上预训练,图像分辨率为 224x224
vit_base_patch16_384_imagenet 86.09M ViT-B16 模型,在 ImageNet 1k 数据集上预训练,图像分辨率为 384x384
vit_base_patch32_224_imagenet21k 87.46M ViT-B32 主干网络,在 ImageNet 21k 数据集上预训练,图像分辨率为 224x224
vit_base_patch32_384_imagenet 87.53M ViT-B32 模型,在 ImageNet 1k 数据集上预训练,图像分辨率为 384x384
vit_large_patch16_224_imagenet 303.30M ViT-L16 模型,在 ImageNet 1k 数据集上预训练,图像分辨率为 224x224
vit_large_patch16_224_imagenet21k 303.30M ViT-L16 主干网络,在 ImageNet 21k 数据集上预训练,图像分辨率为 224x224
vit_large_patch16_384_imagenet 303.69M ViT-L16 模型,在 ImageNet 1k 数据集上预训练,图像分辨率为 384x384
vit_large_patch32_224_imagenet21k 305.51M ViT-L32 主干网络,在 ImageNet 21k 数据集上预训练,图像分辨率为 224x224
vit_large_patch32_384_imagenet 305.61M ViT-L32 模型,在 ImageNet 1k 数据集上预训练,图像分辨率为 384x384
vit_huge_patch14_224_imagenet21k 630.76M ViT-H14 主干网络,在 ImageNet 21k 数据集上预训练,图像分辨率为 224x224

[源代码]

save_to_preset 方法

ImageClassifier.save_to_preset(preset_dir)

将任务保存到预设目录。

参数

  • preset_dir:本地模型预设目录的路径。