KerasHub:预训练模型 / API 文档 / 预处理层 / ImageConverter 层

ImageConverter 层

[源]

ImageConverter

keras_hub.layers.ImageConverter(
    image_size=None,
    scale=None,
    offset=None,
    crop_to_aspect_ratio=True,
    pad_to_aspect_ratio=False,
    interpolation="bilinear",
    antialias=False,
    bounding_box_format="yxyx",
    data_format=None,
    **kwargs
)

将原始图像预处理为模型就绪的输入。

此类将原始图像转换为模型就绪的输入。此转换过程包含以下步骤

  1. 使用 image_size 调整图像大小。如果 image_sizeNone,此步骤将被跳过。
  2. 通过乘以 scale 来缩放图像,scale 可以是全局的或按通道应用的。如果 scaleNone,此步骤将被跳过。
  3. 通过加上 offset 来偏移图像,offset 可以是全局的或按通道应用的。如果 offsetNone,此步骤将被跳过。

该层将接收通道在后(channels last)或通道在前(channels first)格式的原始图像张量作为输入,并输出用于建模的预处理图像输入。该张量可以是批量化的(rank 4),也可以是未批量化的(rank 3)。

此层可与 from_preset() 构造函数一起使用,以加载一个层,该层将为特定的预训练模型调整图像大小和缩放。以这种方式使用该层允许编写在模型检查点之间切换时无需更新的预处理代码。

参数

  • image_size: (int, int) 元组或 None。图像的输出大小,不包括通道轴。如果为 None,输入将不会被调整大小。
  • scale: float、浮点数元组或 None。应用于输入的缩放比例。如果 scale 是单个浮点数,整个输入将乘以 scale。如果 scale 是一个元组,则假定它包含按通道应用的缩放值,乘以输入图像的每个通道。如果 scaleNone,则不应用缩放。
  • offset: float、浮点数元组或 None。应用于输入的偏移值。如果 offset 是单个浮点数,整个输入将与 offset 求和。如果 offset 是一个元组,则假定它包含按通道应用的偏移值,与输入图像的每个通道求和。如果 offsetNone,则不应用缩放。
  • crop_to_aspect_ratio: 如果为 True,则在调整图像大小时不扭曲纵横比。当原始纵横比与目标纵横比不同时,输出图像将被裁剪,以便返回图像中与目标纵横比匹配的尽可能大的窗口(大小为 (height, width))。默认情况下(crop_to_aspect_ratio=False),可能不会保留纵横比。
  • interpolation: 字符串,插值方法。支持 "bilinear""nearest""bicubic""lanczos3""lanczos5"。默认为 "bilinear"
  • antialias: 在下采样图像时是否使用抗锯齿滤波器。默认为 False
  • bounding_box_format: 指定边界框格式的字符串,可以是 "xyxy""rel_xyxy""xywh""center_xywh""yxyx""rel_yxyx" 中的一种。指定将与图像一起调整到 image_size 的边界框的格式。要将边界框传递给此层,请在调用该层时传递一个包含键 "images""bounding_boxes" 的字典。
  • data_format: 字符串,可以是 "channels_last"(通道在后)或 "channels_first"(通道在前)。输入的维度顺序。"channels_last" 对应于形状为 (batch, height, width, channels) 的输入,而 "channels_first" 对应于形状为 (batch, channels, height, width) 的输入。它默认为您 Keras 配置文件 ~/.keras/keras.json 中的 image_data_format 值。如果您从未设置过,则默认为 "channels_last"

示例

# Resize raw images and scale them to [0, 1].
converter = keras_hub.layers.ImageConverter(
    image_size=(128, 128),
    scale=1. / 255,
)
converter(np.random.randint(0, 256, size=(2, 512, 512, 3)))

# Resize images to the specific size needed for a PaliGemma preset.
converter = keras_hub.layers.ImageConverter.from_preset(
    "pali_gemma_3b_224"
)
converter(np.random.randint(0, 256, size=(2, 512, 512, 3)))

[源]

from_preset 方法

ImageConverter.from_preset(preset, **kwargs)

从模型预设实例化 keras_hub.layers.ImageConverter

预设是用于保存和加载预训练模型的配置、权重和其他文件资产的目录。preset 可以按以下方式传递:

  1. 内置预设标识符,例如 'pali_gemma_3b_224'
  2. Kaggle Models 句柄,例如 'kaggle://user/paligemma/keras/pali_gemma_3b_224'
  3. Hugging Face 句柄,例如 'hf://user/pali_gemma_3b_224'
  4. 本地预设目录的路径,例如 './pali_gemma_3b_224'

您可以运行 cls.presets.keys() 来列出该类中所有可用的内置预设。

参数

  • preset: 字符串。内置预设标识符、Kaggle Models 句柄、Hugging Face 句柄或本地目录的路径。
  • load_weights: 布尔值。如果为 True,权重将被加载到模型架构中。如果为 False,权重将随机初始化。

示例

batch = np.random.randint(0, 256, size=(2, 512, 512, 3))

# Resize images for `"pali_gemma_3b_224"`.
converter = keras_hub.layers.ImageConverter.from_preset(
    "pali_gemma_3b_224"
)
converter(batch) # # Output shape (2, 224, 224, 3)

# Resize images for `"pali_gemma_3b_448"` without cropping.
converter = keras_hub.layers.ImageConverter.from_preset(
    "pali_gemma_3b_448",
    crop_to_aspect_ratio=False,
)
converter(batch) # # Output shape (2, 448, 448, 3)
预设 参数 描述
basnet_duts 108.89M BASNet 模型,具有 34 层的 ResNet 主干网络,在 DUTS 图像数据集上以 288x288 的分辨率进行预训练。模型训练由 Hamid Ali (https://github.com/hamidriasat/BASNet) 完成。
clip_vit_base_patch16 149.62M 1.5 亿参数,视觉部分 12 层,文本部分 12 层,patch 大小 16,CLIP 模型。
clip_vit_base_patch32 151.28M 1.51 亿参数,视觉部分 12 层,文本部分 12 层,patch 大小 32,CLIP 模型。
clip_vit_b_32_laion2b_s34b_b79k 151.28M 1.51 亿参数,视觉部分 12 层,文本部分 12 层,patch 大小 32,Open CLIP 模型。
clip_vit_large_patch14 427.62M 4.28 亿参数,视觉部分 24 层,文本部分 12 层,patch 大小 14,CLIP 模型。
clip_vit_large_patch14_336 427.94M 4.28 亿参数,视觉部分 24 层,文本部分 12 层,patch 大小 14,图像尺寸 336,CLIP 模型。
clip_vit_h_14_laion2b_s32b_b79k 986.11M 9.86 亿参数,视觉部分 32 层,文本部分 24 层,patch 大小 14,Open CLIP 模型。
clip_vit_g_14_laion2b_s12b_b42k 1.37B 14 亿参数,视觉部分 40 层,文本部分 24 层,patch 大小 14,Open CLIP 模型。
clip_vit_bigg_14_laion2b_39b_b160k 2.54B 25 亿参数,视觉部分 48 层,文本部分 32 层,patch 大小 14,Open CLIP 模型。
csp_darknet_53_ra_imagenet 26.65M 一个 CSP-DarkNet(跨阶段部分)图像分类模型,在随机增强的 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。
deeplab_v3_plus_resnet50_pascalvoc 39.19M DeepLabV3+ 模型,使用 ResNet50 作为图像编码器,并在语义边界数据集 (SBD) 增强的 Pascal VOC 数据集上训练,分类准确率 90.01,平均 IoU 0.63。
densenet_121_imagenet 7.04M 121 层的 DenseNet 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。
densenet_169_imagenet 12.64M 169 层的 DenseNet 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。
densenet_201_imagenet 18.32M 201 层的 DenseNet 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。
efficientnet_lite0_ra_imagenet 4.65M EfficientNet-Lite 模型,使用 RandAugment 方法在 ImageNet 1k 数据集上进行微调。
efficientnet_b0_ra_imagenet 5.29M EfficientNet B0 模型,使用 RandAugment 方法在 ImageNet 1k 数据集上进行预训练。
efficientnet_b0_ra4_e3600_r224_imagenet 5.29M 由 Ross Wightman 在 ImageNet 1k 数据集上预训练的 EfficientNet B0 模型。使用 timm 脚本和受 MobileNet-V4 small 启发、并结合 timm 和“ResNet Strikes Back”常用超参数训练。
efficientnet_es_ra_imagenet 5.44M EfficientNet-EdgeTPU Small 模型,使用 RandAugment 方法在 ImageNet 1k 数据集上训练。
efficientnet_em_ra2_imagenet 6.90M EfficientNet-EdgeTPU Medium 模型,使用 RandAugment2 方法在 ImageNet 1k 数据集上训练。
efficientnet_b1_ft_imagenet 7.79M EfficientNet B1 模型,在 ImageNet 1k 数据集上进行微调。
efficientnet_b1_ra4_e3600_r240_imagenet 7.79M 由 Ross Wightman 在 ImageNet 1k 数据集上预训练的 EfficientNet B1 模型。使用 timm 脚本和受 MobileNet-V4 small 启发、并结合 timm 和“ResNet Strikes Back”常用超参数训练。
efficientnet_b2_ra_imagenet 9.11M EfficientNet B2 模型,使用 RandAugment 方法在 ImageNet 1k 数据集上进行预训练。
efficientnet_el_ra_imagenet 10.59M EfficientNet-EdgeTPU Large 模型,使用 RandAugment 方法在 ImageNet 1k 数据集上训练。
efficientnet_b3_ra2_imagenet 12.23M EfficientNet B3 模型,使用 RandAugment2 方法在 ImageNet 1k 数据集上进行预训练。
efficientnet2_rw_t_ra2_imagenet 13.65M EfficientNet-v2 Tiny 模型,使用 RandAugment2 方法在 ImageNet 1k 数据集上训练。
efficientnet_b4_ra2_imagenet 19.34M EfficientNet B4 模型,使用 RandAugment2 方法在 ImageNet 1k 数据集上进行预训练。
efficientnet2_rw_s_ra2_imagenet 23.94M EfficientNet-v2 Small 模型,使用 RandAugment2 方法在 ImageNet 1k 数据集上训练。
efficientnet_b5_sw_imagenet 30.39M 由 Ross Wightman 在 ImageNet 12k 数据集上预训练的 EfficientNet B5 模型。基于 Swin Transformer 训练/预训练方法,并进行修改(与 DeiT 和 ConvNeXt 方法相关)。
efficientnet_b5_sw_ft_imagenet 30.39M 由 Ross Wightman 在 ImageNet 12k 数据集上预训练并在 ImageNet-1k 数据集上微调的 EfficientNet B5 模型。基于 Swin Transformer 训练/预训练方法,并进行修改(与 DeiT 和 ConvNeXt 方法相关)。
efficientnet2_rw_m_agc_imagenet 53.24M EfficientNet-v2 Medium 模型,在 ImageNet 1k 数据集上使用自适应梯度裁剪训练。
gemma3_1b 999.89M 10 亿参数,26 层,仅文本预训练 Gemma3 模型。
gemma3_instruct_1b 999.89M 10 亿参数,26 层,仅文本指令微调 Gemma3 模型。
gemma3_4b_text 3.88B 40 亿参数,34 层,仅文本预训练 Gemma3 模型。
gemma3_instruct_4b_text 3.88B 40 亿参数,34 层,仅文本指令微调 Gemma3 模型。
gemma3_4b 4.30B 40 亿参数,34 层,视觉+文本预训练 Gemma3 模型。
gemma3_instruct_4b 4.30B 40 亿参数,34 层,视觉+文本指令微调 Gemma3 模型。
gemma3_12b_text 11.77B 120 亿参数,48 层,仅文本预训练 Gemma3 模型。
gemma3_instruct_12b_text 11.77B 120 亿参数,48 层,仅文本指令微调 Gemma3 模型。
gemma3_12b 12.19B 120 亿参数,48 层,视觉+文本预训练 Gemma3 模型。
gemma3_instruct_12b 12.19B 120 亿参数,48 层,视觉+文本指令微调 Gemma3 模型。
gemma3_27b_text 27.01B 270 亿参数,62 层,仅文本预训练 Gemma3 模型。
gemma3_instruct_27b_text 27.01B 270 亿参数,62 层,仅文本指令微调 Gemma3 模型。
gemma3_27b 27.43B 270 亿参数,62 层,视觉+文本预训练 Gemma3 模型。
gemma3_instruct_27b 27.43B 270 亿参数,62 层,视觉+文本指令微调 Gemma3 模型。
mit_b0_ade20k_512 3.32M MiT (MixTransformer) 模型,包含 8 个 Transformer 块。
mit_b0_cityscapes_1024 3.32M MiT (MixTransformer) 模型,包含 8 个 Transformer 块。
mit_b1_ade20k_512 13.16M MiT (MixTransformer) 模型,包含 8 个 Transformer 块。
mit_b1_cityscapes_1024 13.16M MiT (MixTransformer) 模型,包含 8 个 Transformer 块。
mit_b2_ade20k_512 24.20M MiT (MixTransformer) 模型,包含 16 个 Transformer 块。
mit_b2_cityscapes_1024 24.20M MiT (MixTransformer) 模型,包含 16 个 Transformer 块。
mit_b3_ade20k_512 44.08M MiT (MixTransformer) 模型,包含 28 个 Transformer 块。
mit_b3_cityscapes_1024 44.08M MiT (MixTransformer) 模型,包含 28 个 Transformer 块。
mit_b4_ade20k_512 60.85M MiT (MixTransformer) 模型,包含 41 个 Transformer 块。
mit_b4_cityscapes_1024 60.85M MiT (MixTransformer) 模型,包含 41 个 Transformer 块。
mit_b5_ade20k_640 81.45M MiT (MixTransformer) 模型,包含 52 个 Transformer 块。
mit_b5_cityscapes_1024 81.45M MiT (MixTransformer) 模型,包含 52 个 Transformer 块。
mobilenet_v3_small_050_imagenet 278.78K 小型 Mobilenet V3 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。通道乘数减半。
mobilenet_v3_small_100_imagenet 939.12K 小型 Mobilenet V3 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。使用基线通道乘数。
mobilenet_v3_large_100_imagenet 3.00M 大型 Mobilenet V3 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。使用基线通道乘数。
mobilenet_v3_large_100_imagenet_21k 3.00M 大型 Mobilenet V3 模型,在 ImageNet 21k 数据集上以 224x224 的分辨率进行预训练。使用基线通道乘数。
pali_gemma_3b_mix_224 2.92B 图像尺寸 224,混合微调,文本序列长度 256
pali_gemma_3b_224 2.92B 图像尺寸 224,预训练,文本序列长度 128
pali_gemma_3b_mix_448 2.92B 图像尺寸 448,混合微调,文本序列长度 512
pali_gemma_3b_448 2.92B 图像尺寸 448,预训练,文本序列长度 512
pali_gemma_3b_896 2.93B 图像尺寸 896,预训练,文本序列长度 512
pali_gemma2_mix_3b_224 3.03B 30 亿参数,图像尺寸 224,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 2B 语言模型的 26 层。此模型已在广泛的视觉-语言任务和领域上进行微调。
pali_gemma2_pt_3b_224 3.03B 30 亿参数,图像尺寸 224,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 2B 语言模型的 26 层。此模型已在混合数据集上进行预训练。
pali_gemma_2_ft_docci_3b_448 3.03B 30 亿参数,图像尺寸 448,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 2B 语言模型的 26 层。此模型已在 DOCCI 数据集上进行微调,以改进包含细粒度细节的描述。
pali_gemma2_mix_3b_448 3.03B 30 亿参数,图像尺寸 448,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 2B 语言模型的 26 层。此模型已在广泛的视觉-语言任务和领域上进行微调。
pali_gemma2_pt_3b_448 3.03B 30 亿参数,图像尺寸 448,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 2B 语言模型的 26 层。此模型已在混合数据集上进行预训练。
pali_gemma2_pt_3b_896 3.04B 30 亿参数,图像尺寸 896,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 2B 语言模型的 26 层。此模型已在混合数据集上进行预训练。
pali_gemma2_mix_10b_224 9.66B 100 亿参数,图像尺寸 224,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 9B 语言模型的 42 层。此模型已在广泛的视觉-语言任务和领域上进行微调。
pali_gemma2_pt_10b_224 9.66B 100 亿参数,图像尺寸 224,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 9B 语言模型的 42 层。此模型已在混合数据集上进行预训练。
pali_gemma2_ft_docci_10b_448 9.66B 100 亿参数,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 9B 语言模型的 42 层。此模型已在 DOCCI 数据集上进行微调,以改进包含细粒度细节的描述。
pali_gemma2_mix_10b_448 9.66B 100 亿参数,图像尺寸 448,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 9B 语言模型的 42 层。此模型已在广泛的视觉-语言任务和领域上进行微调。
pali_gemma2_pt_10b_448 9.66B 100 亿参数,图像尺寸 448,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 9B 语言模型的 42 层。此模型已在混合数据集上进行预训练。
pali_gemma2_pt_10b_896 9.67B 100 亿参数,图像尺寸 896,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 9B 语言模型的 42 层。此模型已在混合数据集上进行预训练。
pali_gemma2_mix_28b_224 27.65B 280 亿参数,图像尺寸 224,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 27B 语言模型的 46 层。此模型已在广泛的视觉-语言任务和领域上进行微调。
pali_gemma2_mix_28b_448 27.65B 280 亿参数,图像尺寸 448,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 27B 语言模型的 46 层。此模型已在广泛的视觉-语言任务和领域上进行微调。
pali_gemma2_pt_28b_224 27.65B 280 亿参数,图像尺寸 224,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 27B 语言模型的 46 层。此模型已在混合数据集上进行预训练。
pali_gemma2_pt_28b_448 27.65B 280 亿参数,图像尺寸 448,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 27B 语言模型的 46 层。此模型已在混合数据集上进行预训练。
pali_gemma2_pt_28b_896 27.65B 280 亿参数,图像尺寸 896,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 27B 语言模型的 46 层。此模型已在混合数据集上进行预训练。
resnet_18_imagenet 11.19M 18 层的 ResNet 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。
resnet_vd_18_imagenet 11.72M 18 层的 ResNetVD (ResNet with bag of tricks) 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。
resnet_vd_34_imagenet 21.84M 34 层的 ResNetVD (ResNet with bag of tricks) 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。
resnet_50_imagenet 23.56M 50 层的 ResNet 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。
resnet_v2_50_imagenet 23.56M 50 层的 ResNetV2 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。
resnet_vd_50_imagenet 25.63M 50 层的 ResNetVD (ResNet with bag of tricks) 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。
resnet_vd_50_ssld_imagenet 25.63M 50 层的 ResNetVD (ResNet with bag of tricks) 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率和知识蒸馏进行预训练。
resnet_vd_50_ssld_v2_imagenet 25.63M 50 层的 ResNetVD (ResNet with bag of tricks) 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率和知识蒸馏、AutoAugment 进行预训练。
resnet_vd_50_ssld_v2_fix_imagenet 25.63M 50 层的 ResNetVD (ResNet with bag of tricks) 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率和知识蒸馏、AutoAugment 进行预训练,并对分类头进行额外微调。
resnet_101_imagenet 42.61M 101 层的 ResNet 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。
resnet_v2_101_imagenet 42.61M 101 层的 ResNetV2 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。
resnet_vd_101_imagenet 44.67M 101 层的 ResNetVD (ResNet with bag of tricks) 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。
resnet_vd_101_ssld_imagenet 44.67M 101 层的 ResNetVD (ResNet with bag of tricks) 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率和知识蒸馏进行预训练。
resnet_152_imagenet 58.30M 152 层的 ResNet 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。
resnet_vd_152_imagenet 60.36M 152 层的 ResNetVD (ResNet with bag of tricks) 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。
resnet_vd_200_imagenet 74.93M 200 层的 ResNetVD (ResNet with bag of tricks) 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。
retinanet_resnet50_fpn_v2_coco 31.56M RetinaNet 模型,带有 ResNet50 主干网络,在 COCO 数据集上以 800x800 的分辨率进行微调,使用从 P5 层创建的 FPN 特征。
retinanet_resnet50_fpn_coco 34.12M RetinaNet 模型,带有 ResNet50 主干网络,在 COCO 数据集上以 800x800 的分辨率进行微调。
sam_base_sa1b 93.74M 在 SA1B 数据集上训练的基础 SAM 模型。
sam_huge_sa1b 312.34M 在 SA1B 数据集上训练的超大 SAM 模型。
sam_large_sa1b 641.09M 在 SA1B 数据集上训练的大型 SAM 模型。
siglip_base_patch16_224 203.16M 2 亿参数,图像尺寸 224,在 WebLi 上预训练。
siglip_base_patch16_256 203.20M 2 亿参数,图像尺寸 256,在 WebLi 上预训练。
siglip_base_patch16_384 203.45M 2 亿参数,图像尺寸 384,在 WebLi 上预训练。
siglip_base_patch16_512 203.79M 2 亿参数,图像尺寸 512,在 WebLi 上预训练。
siglip_base_patch16_256_multilingual 370.63M 3.7 亿参数,图像尺寸 256,在 WebLi 上预训练。
siglip2_base_patch16_224 375.19M 3.75 亿参数,patch 大小 16,图像尺寸 224,在 WebLi 上预训练。
siglip2_base_patch16_256 375.23M 3.75 亿参数,patch 大小 16,图像尺寸 256,在 WebLi 上预训练。
siglip2_base_patch32_256 376.86M 3.76 亿参数,patch 大小 32,图像尺寸 256,在 WebLi 上预训练。
siglip2_base_patch16_384 376.86M 3.76 亿参数,patch 大小 16,图像尺寸 384,在 WebLi 上预训练。
siglip_large_patch16_256 652.15M 6.52 亿参数,图像尺寸 256,在 WebLi 上预训练。
siglip_large_patch16_384 652.48M 6.52 亿参数,图像尺寸 384,在 WebLi 上预训练。
siglip_so400m_patch14_224 877.36M 8.77 亿参数,图像尺寸 224,形状优化版本,在 WebLi 上预训练。
siglip_so400m_patch14_384 877.96M 8.77 亿参数,图像尺寸 384,形状优化版本,在 WebLi 上预训练。
siglip2_large_patch16_256 881.53M 8.81 亿参数,patch 大小 16,图像尺寸 256,在 WebLi 上预训练。
siglip2_large_patch16_384 881.86M 8.81 亿参数,patch 大小 16,图像尺寸 384,在 WebLi 上预训练。
siglip2_large_patch16_512 882.31M 8.82 亿参数,patch 大小 16,图像尺寸 512,形状优化版本,在 WebLi 上预训练。
siglip_so400m_patch16_256_i18n 1.13B 11 亿参数,图像尺寸 256,形状优化版本,在 WebLi 上预训练。
siglip2_so400m_patch14_224 1.14B 11 亿参数,patch 大小 14,图像尺寸 224,形状优化版本,在 WebLi 上预训练。
siglip2_so400m_patch16_256 1.14B 11 亿参数,patch 大小 16,图像尺寸 256,形状优化版本,在 WebLi 上预训练。
siglip2_so400m_patch14_384 1.14B 11 亿参数,patch 大小 14,图像尺寸 224,形状优化版本,在 WebLi 上预训练。
siglip2_so400m_patch16_384 1.14B 11 亿参数,patch 大小 16,图像尺寸 384,形状优化版本,在 WebLi 上预训练。
siglip2_so400m_patch16_512 1.14B 11 亿参数,patch 大小 16,图像尺寸 512,形状优化版本,在 WebLi 上预训练。
siglip2_giant_opt_patch16_256 1.87B 18 亿参数,patch 大小 16,图像尺寸 256,在 WebLi 上预训练。
siglip2_giant_opt_patch16_384 1.87B 18 亿参数,patch 大小 16,图像尺寸 384,在 WebLi 上预训练。
vgg_11_imagenet 9.22M 11 层的 VGG 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。
vgg_13_imagenet 9.40M 13 层的 VGG 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。
vgg_16_imagenet 14.71M 16 层的 VGG 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。
vgg_19_imagenet 20.02M 19 层的 VGG 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。
vit_base_patch16_224_imagenet 85.80M ViT-B16 模型,在 ImageNet 1k 数据集上以 224x224 的图像分辨率进行预训练。
vit_base_patch16_224_imagenet21k 85.80M ViT-B16 主干网络,在 ImageNet 21k 数据集上以 224x224 的图像分辨率进行预训练。
vit_base_patch16_384_imagenet 86.09M ViT-B16 模型,在 ImageNet 1k 数据集上以 384x384 的图像分辨率进行预训练。
vit_base_patch32_224_imagenet21k 87.46M ViT-B32 主干网络,在 ImageNet 21k 数据集上以 224x224 的图像分辨率进行预训练。
vit_base_patch32_384_imagenet 87.53M ViT-B32 模型,在 ImageNet 1k 数据集上以 384x384 的图像分辨率进行预训练。
vit_large_patch16_224_imagenet 303.30M ViT-L16 模型,在 ImageNet 1k 数据集上以 224x224 的图像分辨率进行预训练。
vit_large_patch16_224_imagenet21k 303.30M ViT-L16 主干网络,在 ImageNet 21k 数据集上以 224x224 的图像分辨率进行预训练。
vit_large_patch16_384_imagenet 303.69M ViT-L16 模型,在 ImageNet 1k 数据集上以 384x384 的图像分辨率进行预训练。
vit_large_patch32_224_imagenet21k 305.51M ViT-L32 主干网络,在 ImageNet 21k 数据集上以 224x224 的图像分辨率进行预训练。
vit_large_patch32_384_imagenet 305.61M ViT-L32 模型,在 ImageNet 1k 数据集上以 384x384 的图像分辨率进行预训练。
vit_huge_patch14_224_imagenet21k 630.76M ViT-H14 主干网络,在 ImageNet 21k 数据集上以 224x224 的图像分辨率进行预训练。