ImageClassifier
类keras_hub.models.ImageClassifier(
backbone,
num_classes,
preprocessor=None,
pooling="avg",
activation=None,
dropout=0.0,
head_dtype=None,
**kwargs
)
所有图像分类任务的基类。
ImageClassifier
任务封装了一个 keras_hub.models.Backbone
和一个 keras_hub.models.Preprocessor
,以创建一个可用于图像分类的模型。ImageClassifier
任务接受一个额外的 num_classes
参数,用于控制预测输出类别的数量。
要使用 fit()
进行微调,请传递一个包含 (x, y)
标签元组的数据集,其中 x
是一个字符串,y
是一个来自 [0, num_classes)
的整数。所有 ImageClassifier
任务都包含一个 from_preset()
构造函数,可用于加载预训练的配置和权重。
参数
keras_hub.models.Backbone
实例或一个 keras.Model
。None
,一个 keras_hub.models.Preprocessor
实例,一个 keras.Layer
实例,或一个可调用对象。如果为 None
,则不会对输入应用任何预处理。"avg"
或 "max"
。应用于 backbone 输出的池化类型。默认为平均池化。None
,字符串,或可调用对象。要在 Dense
层上使用的激活函数。设置 activation=None
以返回输出 logits。默认为 "softmax"
。None
,字符串,或 keras.mixed_precision.DTypePolicy
。用于分类头计算和权重的 dtype。示例
调用 predict()
运行推理。
# Load preset and train
images = np.random.randint(0, 256, size=(2, 224, 224, 3))
classifier = keras_hub.models.ImageClassifier.from_preset(
"resnet_50_imagenet"
)
classifier.predict(images)
在单个批次上调用 fit()
。
# Load preset and train
images = np.random.randint(0, 256, size=(2, 224, 224, 3))
labels = [0, 3]
classifier = keras_hub.models.ImageClassifier.from_preset(
"resnet_50_imagenet"
)
classifier.fit(x=images, y=labels, batch_size=2)
使用自定义损失、优化器和 backbone 调用 fit()
。
classifier = keras_hub.models.ImageClassifier.from_preset(
"resnet_50_imagenet"
)
classifier.compile(
loss=keras.losses.SparseCategoricalCrossentropy(from_logits=True),
optimizer=keras.optimizers.Adam(5e-5),
)
classifier.backbone.trainable = False
classifier.fit(x=images, y=labels, batch_size=2)
自定义 backbone。
images = np.random.randint(0, 256, size=(2, 224, 224, 3))
labels = [0, 3]
backbone = keras_hub.models.ResNetBackbone(
stackwise_num_filters=[64, 64, 64],
stackwise_num_blocks=[2, 2, 2],
stackwise_num_strides=[1, 2, 2],
block_type="basic_block",
use_pre_activation=True,
pooling="avg",
)
classifier = keras_hub.models.ImageClassifier(
backbone=backbone,
num_classes=4,
)
classifier.fit(x=images, y=labels, batch_size=2)
from_preset
方法ImageClassifier.from_preset(preset, load_weights=True, **kwargs)
从模型预设实例化一个 keras_hub.models.Task
。
预设是用于保存和加载预训练模型的配置、权重和其他文件资产的目录。preset
可以作为以下之一传递
'bert_base_en'
'kaggle://user/bert/keras/bert_base_en'
'hf://user/bert_base_en'
'./bert_base_en'
对于任何 Task
子类,您可以运行 cls.presets.keys()
以列出该类上所有可用的内置预设。
此构造函数可以通过两种方式之一调用。可以从任务特定的基类(如 keras_hub.models.CausalLM.from_preset()
)调用,也可以从模型类(如 keras_hub.models.BertTextClassifier.from_preset()
)调用。如果从基类调用,则返回对象的子类将从预设目录中的配置推断出来。
参数
True
,则保存的权重将加载到模型架构中。如果为 False
,则所有权重都将随机初始化。示例
# Load a Gemma generative task.
causal_lm = keras_hub.models.CausalLM.from_preset(
"gemma_2b_en",
)
# Load a Bert classification task.
model = keras_hub.models.TextClassifier.from_preset(
"bert_base_en",
num_classes=2,
)
预设 | 参数 | 描述 |
---|---|---|
densenet_121_imagenet | 7.04M | 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 121 层 DenseNet 模型。 |
densenet_169_imagenet | 12.64M | 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 169 层 DenseNet 模型。 |
densenet_201_imagenet | 18.32M | 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 201 层 DenseNet 模型。 |
efficientnet_lite0_ra_imagenet | 4.65M | 在 ImageNet 1k 数据集上使用 RandAugment 配方微调的 EfficientNet-Lite 模型。 |
efficientnet_b0_ra_imagenet | 5.29M | 在 ImageNet 1k 数据集上使用 RandAugment 配方预训练的 EfficientNet B0 模型。 |
efficientnet_b0_ra4_e3600_r224_imagenet | 5.29M | Ross Wightman 在 ImageNet 1k 数据集上预训练的 EfficientNet B0 模型。使用 timm 脚本训练,超参数灵感来自 MobileNet-V4 small,并混合了 timm 和 'ResNet Strikes Back' 中的常用超参数。 |
efficientnet_es_ra_imagenet | 5.44M | 在 ImageNet 1k 数据集上使用 RandAugment 配方训练的 EfficientNet-EdgeTPU Small 模型。 |
efficientnet_em_ra2_imagenet | 6.90M | 在 ImageNet 1k 数据集上使用 RandAugment2 配方训练的 EfficientNet-EdgeTPU Medium 模型。 |
efficientnet_b1_ft_imagenet | 7.79M | 在 ImageNet 1k 数据集上微调的 EfficientNet B1 模型。 |
efficientnet_b1_ra4_e3600_r240_imagenet | 7.79M | Ross Wightman 在 ImageNet 1k 数据集上预训练的 EfficientNet B1 模型。使用 timm 脚本训练,超参数灵感来自 MobileNet-V4 small,并混合了 timm 和 'ResNet Strikes Back' 中的常用超参数。 |
efficientnet_b2_ra_imagenet | 9.11M | 在 ImageNet 1k 数据集上使用 RandAugment 配方预训练的 EfficientNet B2 模型。 |
efficientnet_el_ra_imagenet | 10.59M | 在 ImageNet 1k 数据集上使用 RandAugment 配方训练的 EfficientNet-EdgeTPU Large 模型。 |
efficientnet_b3_ra2_imagenet | 12.23M | 在 ImageNet 1k 数据集上使用 RandAugment2 配方预训练的 EfficientNet B3 模型。 |
efficientnet2_rw_t_ra2_imagenet | 13.65M | 在 ImageNet 1k 数据集上使用 RandAugment2 配方训练的 EfficientNet-v2 Tiny 模型。 |
efficientnet_b4_ra2_imagenet | 19.34M | 在 ImageNet 1k 数据集上使用 RandAugment2 配方预训练的 EfficientNet B4 模型。 |
efficientnet2_rw_s_ra2_imagenet | 23.94M | 在 ImageNet 1k 数据集上使用 RandAugment2 配方训练的 EfficientNet-v2 Small 模型。 |
efficientnet_b5_sw_imagenet | 30.39M | Ross Wightman 在 ImageNet 12k 数据集上预训练的 EfficientNet B5 模型。基于 Swin Transformer 训练/预训练配方,并进行了修改(与 DeiT 和 ConvNeXt 配方相关)。 |
efficientnet_b5_sw_ft_imagenet | 30.39M | Ross Wightman 在 ImageNet 12k 数据集上预训练并在 ImageNet-1k 上微调的 EfficientNet B5 模型。基于 Swin Transformer 训练/预训练配方,并进行了修改(与 DeiT 和 ConvNeXt 配方相关)。 |
efficientnet2_rw_m_agc_imagenet | 53.24M | 在 ImageNet 1k 数据集上使用自适应梯度裁剪训练的 EfficientNet-v2 Medium 模型。 |
mit_b0_ade20k_512 | 3.32M | 具有 8 个 Transformer 块的 MiT (MixTransformer) 模型。 |
mit_b0_cityscapes_1024 | 3.32M | 具有 8 个 Transformer 块的 MiT (MixTransformer) 模型。 |
mit_b1_ade20k_512 | 13.16M | 具有 8 个 Transformer 块的 MiT (MixTransformer) 模型。 |
mit_b1_cityscapes_1024 | 13.16M | 具有 8 个 Transformer 块的 MiT (MixTransformer) 模型。 |
mit_b2_ade20k_512 | 24.20M | 具有 16 个 Transformer 块的 MiT (MixTransformer) 模型。 |
mit_b2_cityscapes_1024 | 24.20M | 具有 16 个 Transformer 块的 MiT (MixTransformer) 模型。 |
mit_b3_ade20k_512 | 44.08M | 具有 28 个 Transformer 块的 MiT (MixTransformer) 模型。 |
mit_b3_cityscapes_1024 | 44.08M | 具有 28 个 Transformer 块的 MiT (MixTransformer) 模型。 |
mit_b4_ade20k_512 | 60.85M | 具有 41 个 Transformer 块的 MiT (MixTransformer) 模型。 |
mit_b4_cityscapes_1024 | 60.85M | 具有 41 个 Transformer 块的 MiT (MixTransformer) 模型。 |
mit_b5_ade20k_640 | 81.45M | 具有 52 个 Transformer 块的 MiT (MixTransformer) 模型。 |
mit_b5_cityscapes_1024 | 81.45M | 具有 52 个 Transformer 块的 MiT (MixTransformer) 模型。 |
mobilenet_v3_small_050_imagenet | 278.78K | 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 Small MobileNet V3 模型。 |
resnet_18_imagenet | 11.19M | 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 18 层 ResNet 模型。 |
resnet_vd_18_imagenet | 11.72M | 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 18 层 ResNetVD(带有技巧包的 ResNet)模型。 |
resnet_vd_34_imagenet | 21.84M | 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 34 层 ResNetVD(带有技巧包的 ResNet)模型。 |
resnet_50_imagenet | 23.56M | 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 50 层 ResNet 模型。 |
resnet_v2_50_imagenet | 23.56M | 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 50 层 ResNetV2 模型。 |
resnet_vd_50_imagenet | 25.63M | 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 50 层 ResNetVD(带有技巧包的 ResNet)模型。 |
resnet_vd_50_ssld_imagenet | 25.63M | 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 50 层 ResNetVD(带有技巧包的 ResNet)模型,带有知识蒸馏。 |
resnet_vd_50_ssld_v2_imagenet | 25.63M | 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 50 层 ResNetVD(带有技巧包的 ResNet)模型,带有知识蒸馏和 AutoAugment。 |
resnet_vd_50_ssld_v2_fix_imagenet | 25.63M | 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 50 层 ResNetVD(带有技巧包的 ResNet)模型,带有知识蒸馏、AutoAugment 和分类头的额外微调。 |
resnet_101_imagenet | 42.61M | 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 101 层 ResNet 模型。 |
resnet_v2_101_imagenet | 42.61M | 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 101 层 ResNetV2 模型。 |
resnet_vd_101_imagenet | 44.67M | 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 101 层 ResNetVD(带有技巧包的 ResNet)模型。 |
resnet_vd_101_ssld_imagenet | 44.67M | 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 101 层 ResNetVD(带有技巧包的 ResNet)模型,带有知识蒸馏。 |
resnet_152_imagenet | 58.30M | 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 152 层 ResNet 模型。 |
resnet_vd_152_imagenet | 60.36M | 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 152 层 ResNetVD(带有技巧包的 ResNet)模型。 |
resnet_vd_200_imagenet | 74.93M | 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 200 层 ResNetVD(带有技巧包的 ResNet)模型。 |
vgg_11_imagenet | 9.22M | 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 11 层 vgg 模型。 |
vgg_13_imagenet | 9.40M | 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 13 层 vgg 模型。 |
vgg_16_imagenet | 14.71M | 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 16 层 vgg 模型。 |
vgg_19_imagenet | 20.02M | 在 ImageNet 1k 数据集上以 224x224 分辨率预训练的 19 层 vgg 模型。 |
vit_base_patch16_224_imagenet | 85.80M | 在 ImageNet 1k 数据集上以 224x224 图像分辨率预训练的 ViT-B16 模型 |
vit_base_patch16_224_imagenet21k | 85.80M | 在 ImageNet 21k 数据集上以 224x224 图像分辨率预训练的 ViT-B16 backbone |
vit_base_patch16_384_imagenet | 86.09M | 在 ImageNet 1k 数据集上以 384x384 图像分辨率预训练的 ViT-B16 模型 |
vit_base_patch32_224_imagenet21k | 87.46M | 在 ImageNet 21k 数据集上以 224x224 图像分辨率预训练的 ViT-B32 backbone |
vit_base_patch32_384_imagenet | 87.53M | 在 ImageNet 1k 数据集上以 384x384 图像分辨率预训练的 ViT-B32 模型 |
vit_large_patch16_224_imagenet | 303.30M | 在 ImageNet 1k 数据集上以 224x224 图像分辨率预训练的 ViT-L16 模型 |
vit_large_patch16_224_imagenet21k | 303.30M | 在 ImageNet 21k 数据集上以 224x224 图像分辨率预训练的 ViT-L16 backbone |
vit_large_patch16_384_imagenet | 303.69M | 在 ImageNet 1k 数据集上以 384x384 图像分辨率预训练的 ViT-L16 模型 |
vit_large_patch32_224_imagenet21k | 305.51M | 在 ImageNet 21k 数据集上以 224x224 图像分辨率预训练的 ViT-L32 backbone |
vit_large_patch32_384_imagenet | 305.61M | 在 ImageNet 1k 数据集上以 384x384 图像分辨率预训练的 ViT-L32 模型 |
vit_huge_patch14_224_imagenet21k | 630.76M | 在 ImageNet 21k 数据集上以 224x224 图像分辨率预训练的 ViT-H14 backbone |
compile
方法ImageClassifier.compile(optimizer="auto", loss="auto", metrics="auto", **kwargs)
配置 ImageClassifier
任务以进行训练。
ImageClassifier
任务使用 optimizer
、loss
和 metrics
的默认值扩展了 keras.Model.compile
的默认编译签名。要覆盖这些默认值,请在编译期间将任何值传递给这些参数。
参数
"auto"
、优化器名称或 keras.Optimizer
实例。默认为 "auto"
,它使用给定模型和任务的默认优化器。有关可能的 optimizer
值的更多信息,请参阅 keras.Model.compile
和 keras.optimizers
。"auto"
、损失名称或 keras.losses.Loss
实例。默认为 "auto"
,其中 keras.losses.SparseCategoricalCrossentropy
损失将应用于分类任务。有关可能的 loss
值的更多信息,请参阅 keras.Model.compile
和 keras.losses
。"auto"
,或在模型训练和测试期间要评估的指标列表。默认为 "auto"
,其中 keras.metrics.SparseCategoricalAccuracy
将用于跟踪模型在训练期间的准确率。有关可能的 metrics
值的更多信息,请参阅 keras.Model.compile
和 keras.metrics
。keras.Model.compile
。save_to_preset
方法ImageClassifier.save_to_preset(preset_dir)
将任务保存到预设目录。
参数
preprocessor
属性keras_hub.models.ImageClassifier.preprocessor
用于预处理输入的 keras_hub.models.Preprocessor
层。
backbone
属性keras_hub.models.ImageClassifier.backbone
具有核心架构的 keras_hub.models.Backbone
模型。