EfficientNetBackbone
类keras_hub.models.EfficientNetBackbone(
stackwise_width_coefficients=None,
stackwise_depth_coefficients=None,
stackwise_kernel_sizes,
stackwise_num_repeats,
stackwise_input_filters,
stackwise_output_filters,
stackwise_expansion_ratios,
stackwise_squeeze_and_excite_ratios,
stackwise_strides,
stackwise_block_types,
stackwise_force_input_filters=[0, 0, 0, 0, 0, 0, 0],
stackwise_nores_option=[False, False, False, False, False, False, False],
dropout=0.2,
depth_divisor=8,
min_depth=8,
input_shape=(None, None, 3),
data_format="channels_last",
activation="swish",
include_stem_padding=True,
use_depth_divisor_as_min_depth=False,
cap_round_filter_decrease=False,
stem_conv_padding="valid",
batch_norm_momentum=0.9,
batch_norm_epsilon=1e-05,
projection_activation=None,
num_features=1280,
**kwargs
)
一个 EfficientNet 主干模型。
此类封装了 EfficientNetV1 和 EfficientNetV2 的架构。EfficientNetV2 使用 Fused-MBConv 块和神经架构搜索 (NAS),使模型大小显著缩小,同时仍提高整体模型质量。
参考文献
参数
示例
# You can customize the EfficientNet architecture:
model = EfficientNetBackbone(
stackwise_kernel_sizes=[3, 3, 3, 3, 3, 3],
stackwise_num_repeats=[2, 4, 4, 6, 9, 15],
stackwise_input_filters=[24, 24, 48, 64, 128, 160],
stackwise_output_filters=[24, 48, 64, 128, 160, 256],
stackwise_expansion_ratios=[1, 4, 4, 4, 6, 6],
stackwise_squeeze_and_excite_ratios=[0.0, 0.0, 0, 0.25, 0.25, 0.25],
stackwise_strides=[1, 2, 2, 2, 1, 2],
stackwise_block_types=[["fused"] * 3 + ["unfused"] * 3],
width_coefficient=1.0,
depth_coefficient=1.0,
)
images = np.ones((1, 256, 256, 3))
outputs = efficientnet.predict(images)
from_preset
方法EfficientNetBackbone.from_preset(preset, load_weights=True, **kwargs)
从模型预设实例化一个 keras_hub.models.Backbone
。
预设是用于保存和加载预训练模型的配置、权重和其他文件资源的目录。preset
可以是以下之一:
'bert_base_en'
'kaggle://user/bert/keras/bert_base_en'
'hf://user/bert_base_en'
'./bert_base_en'
此构造函数可以通过两种方式调用。可以从基类调用,例如 keras_hub.models.Backbone.from_preset()
,或从模型类调用,例如 keras_hub.models.GemmaBackbone.from_preset()
。如果从基类调用,返回对象的子类将从预设目录中的配置推断。
对于任何 Backbone
子类,您可以运行 cls.presets.keys()
来列出该类上可用的所有内置预设。
参数
True
,权重将加载到模型架构中。如果为 False
,权重将随机初始化。示例
# Load a Gemma backbone with pre-trained weights.
model = keras_hub.models.Backbone.from_preset(
"gemma_2b_en",
)
# Load a Bert backbone with a pre-trained config and random weights.
model = keras_hub.models.Backbone.from_preset(
"bert_base_en",
load_weights=False,
)
预设 | 参数 | 描述 |
---|---|---|
efficientnet_lite0_ra_imagenet | 4.65M | EfficientNet-Lite 模型在 ImageNet 1k 数据集上使用 RandAugment recipe 进行微调。 |
efficientnet_b0_ra_imagenet | 5.29M | EfficientNet B0 模型在 ImageNet 1k 数据集上使用 RandAugment recipe 进行预训练。 |
efficientnet_b0_ra4_e3600_r224_imagenet | 5.29M | Ross Wightman 在 ImageNet 1k 数据集上预训练的 EfficientNet B0 模型。使用 timm 脚本进行训练,训练超参数受 MobileNet-V4 small 启发,并结合了 timm 和 'ResNet Strikes Back' 中常用的超参数。 |
efficientnet_es_ra_imagenet | 5.44M | EfficientNet-EdgeTPU Small 模型在 ImageNet 1k 数据集上使用 RandAugment recipe 进行训练。 |
efficientnet_em_ra2_imagenet | 6.90M | EfficientNet-EdgeTPU Medium 模型在 ImageNet 1k 数据集上使用 RandAugment2 recipe 进行训练。 |
efficientnet_b1_ft_imagenet | 7.79M | EfficientNet B1 模型在 ImageNet 1k 数据集上进行微调。 |
efficientnet_b1_ra4_e3600_r240_imagenet | 7.79M | Ross Wightman 在 ImageNet 1k 数据集上预训练的 EfficientNet B1 模型。使用 timm 脚本进行训练,训练超参数受 MobileNet-V4 small 启发,并结合了 timm 和 'ResNet Strikes Back' 中常用的超参数。 |
efficientnet_b2_ra_imagenet | 9.11M | EfficientNet B2 模型在 ImageNet 1k 数据集上使用 RandAugment recipe 进行预训练。 |
efficientnet_el_ra_imagenet | 10.59M | EfficientNet-EdgeTPU Large 模型在 ImageNet 1k 数据集上使用 RandAugment recipe 进行训练。 |
efficientnet_b3_ra2_imagenet | 12.23M | EfficientNet B3 模型在 ImageNet 1k 数据集上使用 RandAugment2 recipe 进行预训练。 |
efficientnet2_rw_t_ra2_imagenet | 13.65M | EfficientNet-v2 Tiny 模型在 ImageNet 1k 数据集上使用 RandAugment2 recipe 进行训练。 |
efficientnet_b4_ra2_imagenet | 19.34M | EfficientNet B4 模型在 ImageNet 1k 数据集上使用 RandAugment2 recipe 进行预训练。 |
efficientnet2_rw_s_ra2_imagenet | 23.94M | EfficientNet-v2 Small 模型在 ImageNet 1k 数据集上使用 RandAugment2 recipe 进行训练。 |
efficientnet_b5_sw_imagenet | 30.39M | Ross Wightman 在 ImageNet 12k 数据集上预训练的 EfficientNet B5 模型。基于 Swin Transformer 训练/预训练 recipe 并进行了修改(与 DeiT 和 ConvNeXt recipe 相关)。 |
efficientnet_b5_sw_ft_imagenet | 30.39M | Ross Wightman 在 ImageNet 12k 数据集上预训练并在 ImageNet-1k 上微调的 EfficientNet B5 模型。基于 Swin Transformer 训练/预训练 recipe 并进行了修改(与 DeiT 和 ConvNeXt recipe 相关)。 |
efficientnet2_rw_m_agc_imagenet | 53.24M | EfficientNet-v2 Medium 模型在 ImageNet 1k 数据集上使用自适应梯度裁剪进行训练。 |