KerasHub: 预训练模型 / API 文档 / 模型架构 / EfficientNet / EfficientNetBackbone 模型

EfficientNetBackbone 模型

[来源]

EfficientNetBackbone

keras_hub.models.EfficientNetBackbone(
    stackwise_width_coefficients=None,
    stackwise_depth_coefficients=None,
    stackwise_kernel_sizes,
    stackwise_num_repeats,
    stackwise_input_filters,
    stackwise_output_filters,
    stackwise_expansion_ratios,
    stackwise_squeeze_and_excite_ratios,
    stackwise_strides,
    stackwise_block_types,
    stackwise_force_input_filters=[0, 0, 0, 0, 0, 0, 0],
    stackwise_nores_option=[False, False, False, False, False, False, False],
    dropout=0.2,
    depth_divisor=8,
    min_depth=8,
    input_shape=(None, None, 3),
    data_format="channels_last",
    activation="swish",
    include_stem_padding=True,
    use_depth_divisor_as_min_depth=False,
    cap_round_filter_decrease=False,
    stem_conv_padding="valid",
    batch_norm_momentum=0.9,
    batch_norm_epsilon=1e-05,
    projection_activation=None,
    num_features=1280,
    **kwargs
)

一个 EfficientNet 主干模型。

此类封装了 EfficientNetV1 和 EfficientNetV2 的架构。EfficientNetV2 使用 Fused-MBConv 块和神经架构搜索 (NAS),使模型大小显著缩小,同时仍提高整体模型质量。

参考文献

  • [EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks] (https://arxiv.org/abs/1905.11946) (ICML 2019)
  • [基于原始 keras.applications EfficientNet] (https://github.com/keras-team/keras/blob/master/keras/applications/efficientnet.py)
  • [EfficientNetV2: Smaller Models and Faster Training] (https://arxiv.org/abs/2104.00298) (ICML 2021)

参数

  • stackwise_width_coefficients: list[float],网络宽度的缩放系数。如果是单个 float,则假定此值适用于所有堆栈。
  • stackwise_depth_coefficients: list[float],网络深度的缩放系数。如果是单个 float,则假定此值适用于所有堆栈。
  • stackwise_kernel_sizes: ints 列表,用于每个卷积块的核大小。
  • stackwise_num_repeats: ints 列表,重复每个卷积块的次数。
  • stackwise_input_filters: ints 列表,每个卷积块的输入滤波器数量。
  • stackwise_output_filters: ints 列表,卷积块模型中每个堆栈的输出滤波器数量。
  • stackwise_expansion_ratios: floats 列表,传递给 Squeeze-and-Excitation 块的扩展比。
  • stackwise_strides: ints 列表,每个卷积块的堆栈步幅。
  • stackwise_squeeze_and_excite_ratios: ints 列表,传递给 Squeeze-and-Excitation 块的 Squeeze-and-Excitation 比。
  • stackwise_block_types: strings 列表。每个值是 'v1'、'unfused' 或 'fused',取决于所需的块类型。'v1' 使用原始的 EfficientNet 块。FusedMBConvBlock 类似于 MBConvBlock,但不是使用深度可分离卷积和 1x1 输出卷积,而是使用单个 3x3 卷积块。
  • stackwise_force_input_filters: ints 列表,如果 > 0,则覆盖 stackwise_input_filters。主要用于将 stem 滤波器(通常是 stackwise_input_filters[0])与堆栈输入滤波器区别开来参数化。
  • stackwise_nores_option: bools 列表,切换是否不使用残差连接。如果为 False(默认),堆栈将使用残差连接,否则不使用。
  • dropout: float,跳跃连接处的 dropout 率。默认值设置为 0.2。
  • depth_divisor: integer,网络宽度的单位。默认值设置为 8。
  • min_depth: integer,最小滤波器数量。如果 use_depth_divisor_as_min_depth 设置为 True,则可以为 None 并忽略。
  • activation: 在每个卷积层之间使用的激活函数。
  • input_shape: 可选的 shape 元组,应恰好有 3 个输入通道。
  • __ include_initial_padding__: bool,是否包含初始零填充(如 v1 所述)。
  • use_depth_divisor_as_min_depth: bool,是否使用 depth_divisor 作为最小深度而不是 min_depth(如 v1 所述)。
  • cap_round_filter_decrease: bool,是否限制舍入过程可能产生的滤波器数量的最大减少(如 v1 所述)。
  • stem_conv_padding: str,可以是 'same' 或 'valid'。Stem 的填充方式。
  • batch_norm_momentum: float,批量归一化层中移动平均计算的动量。
  • batch_norm_epsilon: float,批量归一化计算的 epsilon。在计算的分母中使用,以防止除以 0 错误。

示例

# You can customize the EfficientNet architecture:
model = EfficientNetBackbone(
    stackwise_kernel_sizes=[3, 3, 3, 3, 3, 3],
    stackwise_num_repeats=[2, 4, 4, 6, 9, 15],
    stackwise_input_filters=[24, 24, 48, 64, 128, 160],
    stackwise_output_filters=[24, 48, 64, 128, 160, 256],
    stackwise_expansion_ratios=[1, 4, 4, 4, 6, 6],
    stackwise_squeeze_and_excite_ratios=[0.0, 0.0, 0, 0.25, 0.25, 0.25],
    stackwise_strides=[1, 2, 2, 2, 1, 2],
    stackwise_block_types=[["fused"] * 3 + ["unfused"] * 3],
    width_coefficient=1.0,
    depth_coefficient=1.0,
)
images = np.ones((1, 256, 256, 3))
outputs = efficientnet.predict(images)

[来源]

from_preset 方法

EfficientNetBackbone.from_preset(preset, load_weights=True, **kwargs)

从模型预设实例化一个 keras_hub.models.Backbone

预设是用于保存和加载预训练模型的配置、权重和其他文件资源的目录。preset 可以是以下之一:

  1. 内置预设标识符,例如 'bert_base_en'
  2. Kaggle Models 句柄,例如 'kaggle://user/bert/keras/bert_base_en'
  3. Hugging Face 句柄,例如 'hf://user/bert_base_en'
  4. 本地预设目录的路径,例如 './bert_base_en'

此构造函数可以通过两种方式调用。可以从基类调用,例如 keras_hub.models.Backbone.from_preset(),或从模型类调用,例如 keras_hub.models.GemmaBackbone.from_preset()。如果从基类调用,返回对象的子类将从预设目录中的配置推断。

对于任何 Backbone 子类,您可以运行 cls.presets.keys() 来列出该类上可用的所有内置预设。

参数

  • preset: string。内置预设标识符、Kaggle Models 句柄、Hugging Face 句柄或本地目录的路径。
  • load_weights: bool。如果为 True,权重将加载到模型架构中。如果为 False,权重将随机初始化。

示例

# Load a Gemma backbone with pre-trained weights.
model = keras_hub.models.Backbone.from_preset(
    "gemma_2b_en",
)

# Load a Bert backbone with a pre-trained config and random weights.
model = keras_hub.models.Backbone.from_preset(
    "bert_base_en",
    load_weights=False,
)
预设 参数 描述
efficientnet_lite0_ra_imagenet 4.65M EfficientNet-Lite 模型在 ImageNet 1k 数据集上使用 RandAugment recipe 进行微调。
efficientnet_b0_ra_imagenet 5.29M EfficientNet B0 模型在 ImageNet 1k 数据集上使用 RandAugment recipe 进行预训练。
efficientnet_b0_ra4_e3600_r224_imagenet 5.29M Ross Wightman 在 ImageNet 1k 数据集上预训练的 EfficientNet B0 模型。使用 timm 脚本进行训练,训练超参数受 MobileNet-V4 small 启发,并结合了 timm 和 'ResNet Strikes Back' 中常用的超参数。
efficientnet_es_ra_imagenet 5.44M EfficientNet-EdgeTPU Small 模型在 ImageNet 1k 数据集上使用 RandAugment recipe 进行训练。
efficientnet_em_ra2_imagenet 6.90M EfficientNet-EdgeTPU Medium 模型在 ImageNet 1k 数据集上使用 RandAugment2 recipe 进行训练。
efficientnet_b1_ft_imagenet 7.79M EfficientNet B1 模型在 ImageNet 1k 数据集上进行微调。
efficientnet_b1_ra4_e3600_r240_imagenet 7.79M Ross Wightman 在 ImageNet 1k 数据集上预训练的 EfficientNet B1 模型。使用 timm 脚本进行训练,训练超参数受 MobileNet-V4 small 启发,并结合了 timm 和 'ResNet Strikes Back' 中常用的超参数。
efficientnet_b2_ra_imagenet 9.11M EfficientNet B2 模型在 ImageNet 1k 数据集上使用 RandAugment recipe 进行预训练。
efficientnet_el_ra_imagenet 10.59M EfficientNet-EdgeTPU Large 模型在 ImageNet 1k 数据集上使用 RandAugment recipe 进行训练。
efficientnet_b3_ra2_imagenet 12.23M EfficientNet B3 模型在 ImageNet 1k 数据集上使用 RandAugment2 recipe 进行预训练。
efficientnet2_rw_t_ra2_imagenet 13.65M EfficientNet-v2 Tiny 模型在 ImageNet 1k 数据集上使用 RandAugment2 recipe 进行训练。
efficientnet_b4_ra2_imagenet 19.34M EfficientNet B4 模型在 ImageNet 1k 数据集上使用 RandAugment2 recipe 进行预训练。
efficientnet2_rw_s_ra2_imagenet 23.94M EfficientNet-v2 Small 模型在 ImageNet 1k 数据集上使用 RandAugment2 recipe 进行训练。
efficientnet_b5_sw_imagenet 30.39M Ross Wightman 在 ImageNet 12k 数据集上预训练的 EfficientNet B5 模型。基于 Swin Transformer 训练/预训练 recipe 并进行了修改(与 DeiT 和 ConvNeXt recipe 相关)。
efficientnet_b5_sw_ft_imagenet 30.39M Ross Wightman 在 ImageNet 12k 数据集上预训练并在 ImageNet-1k 上微调的 EfficientNet B5 模型。基于 Swin Transformer 训练/预训练 recipe 并进行了修改(与 DeiT 和 ConvNeXt recipe 相关)。
efficientnet2_rw_m_agc_imagenet 53.24M EfficientNet-v2 Medium 模型在 ImageNet 1k 数据集上使用自适应梯度裁剪进行训练。