KerasHub:预训练模型 / API文档 / 模型架构 / EfficientNet / EfficientNetBackbone模型

EfficientNetBackbone 模型

[源代码]

EfficientNetBackbone

keras_hub.models.EfficientNetBackbone(
    stackwise_width_coefficients=None,
    stackwise_depth_coefficients=None,
    stackwise_kernel_sizes,
    stackwise_num_repeats,
    stackwise_input_filters,
    stackwise_output_filters,
    stackwise_expansion_ratios,
    stackwise_squeeze_and_excite_ratios,
    stackwise_strides,
    stackwise_block_types,
    stackwise_force_input_filters=[0, 0, 0, 0, 0, 0, 0],
    stackwise_nores_option=[False, False, False, False, False, False, False],
    dropout=0.2,
    depth_divisor=8,
    min_depth=8,
    input_shape=(None, None, 3),
    data_format="channels_last",
    activation="swish",
    include_stem_padding=True,
    use_depth_divisor_as_min_depth=False,
    cap_round_filter_decrease=False,
    stem_conv_padding="valid",
    batch_norm_momentum=0.9,
    batch_norm_epsilon=1e-05,
    projection_activation=None,
    num_features=1280,
    **kwargs
)

一个EfficientNet骨干模型。

此类封装了EfficientNetV1和EfficientNetV2的架构。EfficientNetV2使用了融合MBConv块和神经架构搜索(NAS),从而大大减小了模型尺寸,同时提高了整体模型质量。

参考文献

  • [EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks] (https://arxiv.org/abs/1905.11946) (ICML 2019)
  • [基于原始的keras.applications EfficientNet] (https://github.com/keras-team/keras/blob/master/keras/applications/efficientnet.py)
  • [EfficientNetV2: Smaller Models and Faster Training] (https://arxiv.org/abs/2104.00298) (ICML 2021)

参数

  • stackwise_width_coefficients: list[float],网络宽度的缩放系数。如果为单个浮点数,则假定该值适用于所有堆栈。
  • stackwise_depth_coefficients: list[float],网络深度的缩放系数。如果为单个浮点数,则假定该值适用于所有堆栈。
  • stackwise_kernel_sizes: list of ints,每个卷积块使用的卷积核大小。
  • stackwise_num_repeats: list of ints,每个卷积块重复的次数。
  • stackwise_input_filters: list of ints,每个卷积块的输入滤波器数量。
  • stackwise_output_filters: list of ints,卷积块模型中每个堆栈的输出滤波器数量。
  • stackwise_expansion_ratios: list of floats,传递给squeeze and excitation块的扩展比例。
  • stackwise_strides: list of ints,每个卷积块的步幅。
  • stackwise_squeeze_and_excite_ratios: list of ints,传递给squeeze and excite块的squeeze and excite比例。
  • stackwise_block_types: list of strings。每个值可以是'v1'、'unfused'或'fused',取决于所需的块。'v1'使用原始的efficientnet块。FusedMBConvBlock类似于MBConvBlock,但它使用一个3x3的卷积块,而不是一个深度卷积和一个1x1的输出卷积块。
  • stackwise_force_input_filters: list of ints,如果大于0,则覆盖stackwise_input_filters。主要用于对stem滤波器(通常是stackwise_input_filters[0])进行参数化,使其与堆栈输入滤波器不同。
  • stackwise_nores_option: list of bools,切换是否使用残差连接。如果为False(默认),则堆栈将使用残差连接,否则不使用。
  • dropout: float,跳跃连接处的dropout率。默认值为0.2。
  • depth_divisor: integer,网络宽度的单位。默认值为8。
  • min_depth: integer,最小滤波器数量。如果use_depth_divisor_as_min_depth设置为True,则可以为None并忽略。
  • activation: 在每个卷积层之间使用的激活函数。
  • input_shape: 可选的形状元组,应具有恰好3个输入通道。
  • __ include_initial_padding__: bool,是否包含初始零填充(如同v1)。
  • use_depth_divisor_as_min_depth: bool,是否使用depth_divisor作为最小深度,而不是min_depth(如同v1)。
  • cap_round_filter_decrease: bool,是否限制四舍五入过程可能产生的滤波器数量的最大减少值(如同v1)。
  • stem_conv_padding: str,可以是'same'或'valid'。stem的填充。
  • batch_norm_momentum: float,批标准化层中移动平均计算的动量。
  • batch_norm_epsilon: float,批标准化计算的epsilon。用于计算中的分母,以防止除以零错误。

示例

# You can customize the EfficientNet architecture:
model = EfficientNetBackbone(
    stackwise_kernel_sizes=[3, 3, 3, 3, 3, 3],
    stackwise_num_repeats=[2, 4, 4, 6, 9, 15],
    stackwise_input_filters=[24, 24, 48, 64, 128, 160],
    stackwise_output_filters=[24, 48, 64, 128, 160, 256],
    stackwise_expansion_ratios=[1, 4, 4, 4, 6, 6],
    stackwise_squeeze_and_excite_ratios=[0.0, 0.0, 0, 0.25, 0.25, 0.25],
    stackwise_strides=[1, 2, 2, 2, 1, 2],
    stackwise_block_types=[["fused"] * 3 + ["unfused"] * 3],
    width_coefficient=1.0,
    depth_coefficient=1.0,
)
images = np.ones((1, 256, 256, 3))
outputs = efficientnet.predict(images)

[源代码]

from_preset 方法

EfficientNetBackbone.from_preset(preset, load_weights=True, **kwargs)

从模型预设实例化一个 keras_hub.models.Backbone

预设是一个包含配置、权重和其他文件资源的目录,用于保存和加载预训练模型。preset 可以作为以下之一传递:

  1. 一个内置的预设标识符,如 'bert_base_en'
  2. 一个 Kaggle Models 句柄,如 'kaggle://user/bert/keras/bert_base_en'
  3. 一个 Hugging Face 句柄,如 'hf://user/bert_base_en'
  4. 一个 ModelScope 句柄,例如 'modelscope://user/bert_base_en'
  5. 一个本地预设目录的路径,如 './bert_base_en'

此构造函数可以通过两种方式之一调用。要么从基类调用,如 keras_hub.models.Backbone.from_preset(),要么从模型类调用,如 keras_hub.models.GemmaBackbone.from_preset()。如果从基类调用,则返回对象的子类将根据预设目录中的配置进行推断。

对于任何 Backbone 子类,您可以运行 cls.presets.keys() 来列出该类上所有可用的内置预设。

参数

  • preset:字符串。一个内置预设标识符、一个 Kaggle Models 句柄、一个 Hugging Face 句柄或一个本地目录的路径。
  • load_weights:布尔值。如果为 `True`,权重将被加载到模型架构中。如果为 `False`,权重将被随机初始化。

示例

# Load a Gemma backbone with pre-trained weights.
model = keras_hub.models.Backbone.from_preset(
    "gemma_2b_en",
)

# Load a Bert backbone with a pre-trained config and random weights.
model = keras_hub.models.Backbone.from_preset(
    "bert_base_en",
    load_weights=False,
)
预设 参数 描述
efficientnet_lite0_ra_imagenet 4.65M EfficientNet-Lite 模型在 ImageNet 1k 数据集上使用 RandAugment 策略进行微调。
efficientnet_b0_ra_imagenet 5.29M EfficientNet B0 模型在 ImageNet 1k 数据集上使用 RandAugment 策略进行预训练。
efficientnet_b0_ra4_e3600_r224_imagenet 5.29M EfficientNet B0 模型由 Ross Wightman 在 ImageNet 1k 数据集上预训练。使用 timm 脚本训练,超参数受 MobileNet-V4 small、timm 的通用超参数和“ResNet Strikes Back”的启发。
efficientnet_es_ra_imagenet 5.44M EfficientNet-EdgeTPU Small 模型在 ImageNet 1k 数据集上使用 RandAugment 策略进行训练。
efficientnet_em_ra2_imagenet 6.90M EfficientNet-EdgeTPU Medium 模型在 ImageNet 1k 数据集上使用 RandAugment2 策略进行训练。
efficientnet_b1_ft_imagenet 7.79M EfficientNet B1 模型在 ImageNet 1k 数据集上进行微调。
efficientnet_b1_ra4_e3600_r240_imagenet 7.79M EfficientNet B1 模型由 Ross Wightman 在 ImageNet 1k 数据集上预训练。使用 timm 脚本训练,超参数受 MobileNet-V4 small、timm 的通用超参数和“ResNet Strikes Back”的启发。
efficientnet_b2_ra_imagenet 9.11M EfficientNet B2 模型在 ImageNet 1k 数据集上使用 RandAugment 策略进行预训练。
efficientnet_el_ra_imagenet 10.59M EfficientNet-EdgeTPU Large 模型在 ImageNet 1k 数据集上使用 RandAugment 策略进行训练。
efficientnet_b3_ra2_imagenet 12.23M EfficientNet B3 模型在 ImageNet 1k 数据集上使用 RandAugment2 策略进行预训练。
efficientnet2_rw_t_ra2_imagenet 13.65M EfficientNet-v2 Tiny 模型在 ImageNet 1k 数据集上使用 RandAugment2 策略进行训练。
efficientnet_b4_ra2_imagenet 19.34M EfficientNet B4 模型在 ImageNet 1k 数据集上使用 RandAugment2 策略进行预训练。
efficientnet2_rw_s_ra2_imagenet 23.94M EfficientNet-v2 Small 模型在 ImageNet 1k 数据集上使用 RandAugment2 策略进行训练。
efficientnet_b5_sw_imagenet 30.39M EfficientNet B5 模型由 Ross Wightman 在 ImageNet 12k 数据集上预训练。基于 Swin Transformer 训练/预训练策略,并进行了修改(与 DeiT 和 ConvNeXt 策略相关)。
efficientnet_b5_sw_ft_imagenet 30.39M EfficientNet B5 模型由 Ross Wightman 在 ImageNet 12k 数据集上预训练,并在 ImageNet-1k 上微调。基于 Swin Transformer 训练/预训练策略,并进行了修改(与 DeiT 和 ConvNeXt 策略相关)。
efficientnet2_rw_m_agc_imagenet 53.24M EfficientNet-v2 Medium 模型在 ImageNet 1k 数据集上使用自适应梯度裁剪进行训练。