图像分类器

[源代码]

ImageClassifier

keras_hub.models.ImageClassifier(
    backbone,
    num_classes,
    preprocessor=None,
    pooling="avg",
    activation=None,
    dropout=0.0,
    head_dtype=None,
    **kwargs
)

所有图像分类任务的基类。

ImageClassifier 任务封装了一个 keras_hub.models.Backbone 和一个 keras_hub.models.Preprocessor,用于创建可用于图像分类的模型。ImageClassifier 任务接受一个额外的 num_classes 参数,用于控制预测输出类别的数量。

要使用 fit() 进行微调,请传入包含 (x, y) 标签元组的数据集,其中 x 是字符串,y[0, num_classes) 范围内的整数。所有 ImageClassifier 任务都包含一个 from_preset() 构造函数,可用于加载预训练配置和权重。

参数

  • backbone: 一个 keras_hub.models.Backbone 实例或一个 keras.Model
  • num_classes: int。要预测的类别数量。
  • preprocessor: None、一个 keras_hub.models.Preprocessor 实例、一个 keras.Layer 实例或一个可调用对象。如果为 None,则不对输入应用预处理。
  • pooling: "avg""max"。应用于主干网络输出的池化类型。默认为平均池化。
  • activation: None、str 或可调用对象。在 Dense 层上使用的激活函数。将 activation=None 设置为返回输出 logits。默认为 "softmax"
  • head_dtype: None、str 或 keras.mixed_precision.DTypePolicy。用于分类头计算和权重的 dtype。

示例

调用 predict() 运行推理。

# Load preset and train
images = np.random.randint(0, 256, size=(2, 224, 224, 3))
classifier = keras_hub.models.ImageClassifier.from_preset(
    "resnet_50_imagenet"
)
classifier.predict(images)

在单个批次上调用 fit()

# Load preset and train
images = np.random.randint(0, 256, size=(2, 224, 224, 3))
labels = [0, 3]
classifier = keras_hub.models.ImageClassifier.from_preset(
    "resnet_50_imagenet"
)
classifier.fit(x=images, y=labels, batch_size=2)

使用自定义损失、优化器和主干网络调用 fit()

classifier = keras_hub.models.ImageClassifier.from_preset(
    "resnet_50_imagenet"
)
classifier.compile(
    loss=keras.losses.SparseCategoricalCrossentropy(from_logits=True),
    optimizer=keras.optimizers.Adam(5e-5),
)
classifier.backbone.trainable = False
classifier.fit(x=images, y=labels, batch_size=2)

自定义主干网络。

images = np.random.randint(0, 256, size=(2, 224, 224, 3))
labels = [0, 3]
backbone = keras_hub.models.ResNetBackbone(
    stackwise_num_filters=[64, 64, 64],
    stackwise_num_blocks=[2, 2, 2],
    stackwise_num_strides=[1, 2, 2],
    block_type="basic_block",
    use_pre_activation=True,
    pooling="avg",
)
classifier = keras_hub.models.ImageClassifier(
    backbone=backbone,
    num_classes=4,
)
classifier.fit(x=images, y=labels, batch_size=2)

[源代码]

from_preset 方法

ImageClassifier.from_preset(preset, load_weights=True, **kwargs)

从模型预设实例化一个 keras_hub.models.Task

预设是一个目录,包含用于保存和加载预训练模型的配置、权重及其他文件资产。preset 可以作为以下项之一传递:

  1. 内置预设标识符,例如 'bert_base_en'
  2. Kaggle Models 句柄,例如 'kaggle://user/bert/keras/bert_base_en'
  3. Hugging Face 句柄,例如 'hf://user/bert_base_en'
  4. 本地预设目录的路径,例如 './bert_base_en'

对于任何 Task 子类,您都可以运行 cls.presets.keys() 列出该类上所有可用的内置预设。

此构造函数可以通过两种方式之一调用。可以从任务特定的基类调用,例如 keras_hub.models.CausalLM.from_preset(),或者从模型类调用,例如 keras_hub.models.BertTextClassifier.from_preset()。如果从基类调用,则返回对象的子类将从预设目录中的配置中推断出来。

参数

  • preset:字符串。内置预设标识符、Kaggle Models 句柄、Hugging Face 句柄或本地目录的路径。
  • load_weights: bool。如果为 True,则将保存的权重加载到模型架构中。如果为 False,则所有权重将随机初始化。

示例

# Load a Gemma generative task.
causal_lm = keras_hub.models.CausalLM.from_preset(
    "gemma_2b_en",
)

# Load a Bert classification task.
model = keras_hub.models.TextClassifier.from_preset(
    "bert_base_en",
    num_classes=2,
)
预设 参数 描述
csp_darknet_53_ra_imagenet 26.65M 在随机增强的 ImageNet 1k 数据集上以 224x224 分辨率预训练的 CSP-DarkNet(跨阶段局部)图像分类模型。
densenet_121_imagenet 7.04M 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 121 层 DenseNet 模型。
densenet_169_imagenet 12.64M 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 169 层 DenseNet 模型。
densenet_201_imagenet 18.32M 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 201 层 DenseNet 模型。
efficientnet_lite0_ra_imagenet 4.65M 使用 RandAugment 配方在 ImageNet 1k 数据集上微调的 EfficientNet-Lite 模型。
efficientnet_b0_ra_imagenet 5.29M 使用 RandAugment 配方在 ImageNet 1k 数据集上预训练的 EfficientNet B0 模型。
efficientnet_b0_ra4_e3600_r224_imagenet 5.29M 由 Ross Wightman 在 ImageNet 1k 数据集上预训练的 EfficientNet B0 模型。使用 timm 脚本进行训练,采用受 MobileNet-V4 small 启发并结合 timm 和 'ResNet Strikes Back' 常用超参数的设置。
efficientnet_es_ra_imagenet 5.44M 使用 RandAugment 配方在 ImageNet 1k 数据集上训练的 EfficientNet-EdgeTPU Small 模型。
efficientnet_em_ra2_imagenet 6.90M 使用 RandAugment2 配方在 ImageNet 1k 数据集上训练的 EfficientNet-EdgeTPU Medium 模型。
efficientnet_b1_ft_imagenet 7.79M 在 ImageNet 1k 数据集上微调的 EfficientNet B1 模型。
efficientnet_b1_ra4_e3600_r240_imagenet 7.79M 由 Ross Wightman 在 ImageNet 1k 数据集上预训练的 EfficientNet B1 模型。使用 timm 脚本进行训练,采用受 MobileNet-V4 small 启发并结合 timm 和 'ResNet Strikes Back' 常用超参数的设置。
efficientnet_b2_ra_imagenet 9.11M 使用 RandAugment 配方在 ImageNet 1k 数据集上预训练的 EfficientNet B2 模型。
efficientnet_el_ra_imagenet 10.59M 使用 RandAugment 配方在 ImageNet 1k 数据集上训练的 EfficientNet-EdgeTPU Large 模型。
efficientnet_b3_ra2_imagenet 12.23M 使用 RandAugment2 配方在 ImageNet 1k 数据集上预训练的 EfficientNet B3 模型。
efficientnet2_rw_t_ra2_imagenet 13.65M 使用 RandAugment2 配方在 ImageNet 1k 数据集上训练的 EfficientNet-v2 Tiny 模型。
efficientnet_b4_ra2_imagenet 19.34M 使用 RandAugment2 配方在 ImageNet 1k 数据集上预训练的 EfficientNet B4 模型。
efficientnet2_rw_s_ra2_imagenet 23.94M 使用 RandAugment2 配方在 ImageNet 1k 数据集上训练的 EfficientNet-v2 Small 模型。
efficientnet_b5_sw_imagenet 30.39M 由 Ross Wightman 在 ImageNet 12k 数据集上预训练的 EfficientNet B5 模型。基于 Swin Transformer 训练/预训练配方并进行修改(与 DeiT 和 ConvNeXt 配方均相关)。
efficientnet_b5_sw_ft_imagenet 30.39M 由 Ross Wightman 在 ImageNet 12k 数据集上预训练并在 ImageNet-1k 数据集上微调的 EfficientNet B5 模型。基于 Swin Transformer 训练/预训练配方并进行修改(与 DeiT 和 ConvNeXt 配方均相关)。
efficientnet2_rw_m_agc_imagenet 53.24M 使用自适应梯度裁剪在 ImageNet 1k 数据集上训练的 EfficientNet-v2 Medium 模型。
mit_b0_ade20k_512 3.32M 包含 8 个 Transformer 块的 MiT (MixTransformer) 模型。
mit_b0_cityscapes_1024 3.32M 包含 8 个 Transformer 块的 MiT (MixTransformer) 模型。
mit_b1_ade20k_512 13.16M 包含 8 个 Transformer 块的 MiT (MixTransformer) 模型。
mit_b1_cityscapes_1024 13.16M 包含 8 个 Transformer 块的 MiT (MixTransformer) 模型。
mit_b2_ade20k_512 24.20M 包含 16 个 Transformer 块的 MiT (MixTransformer) 模型。
mit_b2_cityscapes_1024 24.20M 包含 16 个 Transformer 块的 MiT (MixTransformer) 模型。
mit_b3_ade20k_512 44.08M 包含 28 个 Transformer 块的 MiT (MixTransformer) 模型。
mit_b3_cityscapes_1024 44.08M 包含 28 个 Transformer 块的 MiT (MixTransformer) 模型。
mit_b4_ade20k_512 60.85M 包含 41 个 Transformer 块的 MiT (MixTransformer) 模型。
mit_b4_cityscapes_1024 60.85M 包含 41 个 Transformer 块的 MiT (MixTransformer) 模型。
mit_b5_ade20k_640 81.45M 包含 52 个 Transformer 块的 MiT (MixTransformer) 模型。
mit_b5_cityscapes_1024 81.45M 包含 52 个 Transformer 块的 MiT (MixTransformer) 模型。
mobilenet_v3_small_050_imagenet 278.78K 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 Small Mobilenet V3 模型。通道乘数减半。
mobilenet_v3_small_100_imagenet 939.12K 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 Small Mobilenet V3 模型。通道乘数为基准值。
mobilenet_v3_large_100_imagenet 3.00M 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 Large Mobilenet V3 模型。通道乘数为基准值。
mobilenet_v3_large_100_imagenet_21k 3.00M 在 ImageNet 21k 数据集上以 224x224 分辨率预训练的 Large Mobilenet V3 模型。通道乘数为基准值。
resnet_18_imagenet 11.19M 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 18 层 ResNet 模型。
resnet_vd_18_imagenet 11.72M 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 18 层 ResNetVD(ResNet 加技巧)模型。
resnet_vd_34_imagenet 21.84M 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 34 层 ResNetVD(ResNet 加技巧)模型。
resnet_50_imagenet 23.56M 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 50 层 ResNet 模型。
resnet_v2_50_imagenet 23.56M 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 50 层 ResNetV2 模型。
resnet_vd_50_imagenet 25.63M 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 50 层 ResNetVD(ResNet 加技巧)模型。
resnet_vd_50_ssld_imagenet 25.63M 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 50 层 ResNetVD(ResNet 加技巧)模型,并使用了知识蒸馏。
resnet_vd_50_ssld_v2_imagenet 25.63M 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 50 层 ResNetVD(ResNet 加技巧)模型,并使用了知识蒸馏和 AutoAugment。
resnet_vd_50_ssld_v2_fix_imagenet 25.63M 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 50 层 ResNetVD(ResNet 加技巧)模型,并使用了知识蒸馏、AutoAugment 和对分类头的额外微调。
resnet_101_imagenet 42.61M 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 101 层 ResNet 模型。
resnet_v2_101_imagenet 42.61M 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 101 层 ResNetV2 模型。
resnet_vd_101_imagenet 44.67M 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 101 层 ResNetVD(ResNet 加技巧)模型。
resnet_vd_101_ssld_imagenet 44.67M 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 101 层 ResNetVD(ResNet 加技巧)模型,并使用了知识蒸馏。
resnet_152_imagenet 58.30M 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 152 层 ResNet 模型。
resnet_vd_152_imagenet 60.36M 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 152 层 ResNetVD(ResNet 加技巧)模型。
resnet_vd_200_imagenet 74.93M 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 200 层 ResNetVD(ResNet 加技巧)模型。
vgg_11_imagenet 9.22M 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 11 层 VGG 模型。
vgg_13_imagenet 9.40M 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 13 层 VGG 模型。
vgg_16_imagenet 14.71M 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 16 层 VGG 模型。
vgg_19_imagenet 20.02M 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 19 层 VGG 模型。
vit_base_patch16_224_imagenet 85.80M 在 ImageNet 1k 数据集上以 224x224 图像分辨率预训练的 ViT-B16 模型。
vit_base_patch16_224_imagenet21k 85.80M 在 ImageNet 21k 数据集上以 224x224 图像分辨率预训练的 ViT-B16 主干网络。
vit_base_patch16_384_imagenet 86.09M 在 ImageNet 1k 数据集上以 384x384 图像分辨率预训练的 ViT-B16 模型。
vit_base_patch32_224_imagenet21k 87.46M 在 ImageNet 21k 数据集上以 224x224 图像分辨率预训练的 ViT-B32 主干网络。
vit_base_patch32_384_imagenet 87.53M 在 ImageNet 1k 数据集上以 384x384 图像分辨率预训练的 ViT-B32 模型。
vit_large_patch16_224_imagenet 303.30M 在 ImageNet 1k 数据集上以 224x224 图像分辨率预训练的 ViT-L16 模型。
vit_large_patch16_224_imagenet21k 303.30M 在 ImageNet 21k 数据集上以 224x224 图像分辨率预训练的 ViT-L16 主干网络。
vit_large_patch16_384_imagenet 303.69M 在 ImageNet 1k 数据集上以 384x384 图像分辨率预训练的 ViT-L16 模型。
vit_large_patch32_224_imagenet21k 305.51M 在 ImageNet 21k 数据集上以 224x224 图像分辨率预训练的 ViT-L32 主干网络。
vit_large_patch32_384_imagenet 305.61M 在 ImageNet 1k 数据集上以 384x384 图像分辨率预训练的 ViT-L32 模型。
vit_huge_patch14_224_imagenet21k 630.76M 在 ImageNet 21k 数据集上以 224x224 图像分辨率预训练的 ViT-H14 主干网络。

[源代码]

compile 方法

ImageClassifier.compile(optimizer="auto", loss="auto", metrics="auto", **kwargs)

配置 ImageClassifier 任务用于训练。

ImageClassifier 任务扩展了 keras.Model.compile 的默认编译签名,并为 optimizerlossmetrics 提供了默认值。要覆盖这些默认值,请在编译时将任何值传递给这些参数。

参数


[源代码]

save_to_preset 方法

ImageClassifier.save_to_preset(preset_dir)

将任务保存到预设目录。

参数

  • preset_dir: 本地模型预设目录的路径。

preprocessor 属性

keras_hub.models.ImageClassifier.preprocessor

用于预处理输入的 keras_hub.models.Preprocessor 层。


backbone 属性

keras_hub.models.ImageClassifier.backbone

具有核心架构的 keras_hub.models.Backbone 模型。