ImageConverter
类keras_hub.layers.ImageConverter(
image_size=None,
scale=None,
offset=None,
crop_to_aspect_ratio=True,
pad_to_aspect_ratio=False,
interpolation="bilinear",
antialias=False,
bounding_box_format="yxyx",
data_format=None,
**kwargs
)
将原始图像预处理为模型就绪的输入。
此类将原始图像转换为模型就绪的输入。此转换过程包含以下步骤
image_size
调整图像大小。如果 image_size
为 None
,此步骤将被跳过。scale
来缩放图像,scale
可以是全局的或按通道应用的。如果 scale
为 None
,此步骤将被跳过。offset
来偏移图像,offset
可以是全局的或按通道应用的。如果 offset
为 None
,此步骤将被跳过。该层将接收通道在后(channels last)或通道在前(channels first)格式的原始图像张量作为输入,并输出用于建模的预处理图像输入。该张量可以是批量化的(rank 4),也可以是未批量化的(rank 3)。
此层可与 from_preset()
构造函数一起使用,以加载一个层,该层将为特定的预训练模型调整图像大小和缩放。以这种方式使用该层允许编写在模型检查点之间切换时无需更新的预处理代码。
参数
(int, int)
元组或 None
。图像的输出大小,不包括通道轴。如果为 None
,输入将不会被调整大小。None
。应用于输入的缩放比例。如果 scale
是单个浮点数,整个输入将乘以 scale
。如果 scale
是一个元组,则假定它包含按通道应用的缩放值,乘以输入图像的每个通道。如果 scale
为 None
,则不应用缩放。None
。应用于输入的偏移值。如果 offset
是单个浮点数,整个输入将与 offset
求和。如果 offset
是一个元组,则假定它包含按通道应用的偏移值,与输入图像的每个通道求和。如果 offset
为 None
,则不应用缩放。True
,则在调整图像大小时不扭曲纵横比。当原始纵横比与目标纵横比不同时,输出图像将被裁剪,以便返回图像中与目标纵横比匹配的尽可能大的窗口(大小为 (height, width)
)。默认情况下(crop_to_aspect_ratio=False
),可能不会保留纵横比。"bilinear"
、"nearest"
、"bicubic"
、"lanczos3"
、"lanczos5"
。默认为 "bilinear"
。False
。"xyxy"
、"rel_xyxy"
、"xywh"
、"center_xywh"
、"yxyx"
、"rel_yxyx"
中的一种。指定将与图像一起调整到 image_size
的边界框的格式。要将边界框传递给此层,请在调用该层时传递一个包含键 "images"
和 "bounding_boxes"
的字典。"channels_last"
(通道在后)或 "channels_first"
(通道在前)。输入的维度顺序。"channels_last"
对应于形状为 (batch, height, width, channels)
的输入,而 "channels_first"
对应于形状为 (batch, channels, height, width)
的输入。它默认为您 Keras 配置文件 ~/.keras/keras.json
中的 image_data_format
值。如果您从未设置过,则默认为 "channels_last"
。示例
# Resize raw images and scale them to [0, 1].
converter = keras_hub.layers.ImageConverter(
image_size=(128, 128),
scale=1. / 255,
)
converter(np.random.randint(0, 256, size=(2, 512, 512, 3)))
# Resize images to the specific size needed for a PaliGemma preset.
converter = keras_hub.layers.ImageConverter.from_preset(
"pali_gemma_3b_224"
)
converter(np.random.randint(0, 256, size=(2, 512, 512, 3)))
from_preset
方法ImageConverter.from_preset(preset, **kwargs)
从模型预设实例化 keras_hub.layers.ImageConverter
。
预设是用于保存和加载预训练模型的配置、权重和其他文件资产的目录。preset
可以按以下方式传递:
'pali_gemma_3b_224'
'kaggle://user/paligemma/keras/pali_gemma_3b_224'
'hf://user/pali_gemma_3b_224'
'./pali_gemma_3b_224'
您可以运行 cls.presets.keys()
来列出该类中所有可用的内置预设。
参数
True
,权重将被加载到模型架构中。如果为 False
,权重将随机初始化。示例
batch = np.random.randint(0, 256, size=(2, 512, 512, 3))
# Resize images for `"pali_gemma_3b_224"`.
converter = keras_hub.layers.ImageConverter.from_preset(
"pali_gemma_3b_224"
)
converter(batch) # # Output shape (2, 224, 224, 3)
# Resize images for `"pali_gemma_3b_448"` without cropping.
converter = keras_hub.layers.ImageConverter.from_preset(
"pali_gemma_3b_448",
crop_to_aspect_ratio=False,
)
converter(batch) # # Output shape (2, 448, 448, 3)
预设 | 参数 | 描述 |
---|---|---|
basnet_duts | 108.89M | BASNet 模型,具有 34 层的 ResNet 主干网络,在 DUTS 图像数据集上以 288x288 的分辨率进行预训练。模型训练由 Hamid Ali (https://github.com/hamidriasat/BASNet) 完成。 |
clip_vit_base_patch16 | 149.62M | 1.5 亿参数,视觉部分 12 层,文本部分 12 层,patch 大小 16,CLIP 模型。 |
clip_vit_base_patch32 | 151.28M | 1.51 亿参数,视觉部分 12 层,文本部分 12 层,patch 大小 32,CLIP 模型。 |
clip_vit_b_32_laion2b_s34b_b79k | 151.28M | 1.51 亿参数,视觉部分 12 层,文本部分 12 层,patch 大小 32,Open CLIP 模型。 |
clip_vit_large_patch14 | 427.62M | 4.28 亿参数,视觉部分 24 层,文本部分 12 层,patch 大小 14,CLIP 模型。 |
clip_vit_large_patch14_336 | 427.94M | 4.28 亿参数,视觉部分 24 层,文本部分 12 层,patch 大小 14,图像尺寸 336,CLIP 模型。 |
clip_vit_h_14_laion2b_s32b_b79k | 986.11M | 9.86 亿参数,视觉部分 32 层,文本部分 24 层,patch 大小 14,Open CLIP 模型。 |
clip_vit_g_14_laion2b_s12b_b42k | 1.37B | 14 亿参数,视觉部分 40 层,文本部分 24 层,patch 大小 14,Open CLIP 模型。 |
clip_vit_bigg_14_laion2b_39b_b160k | 2.54B | 25 亿参数,视觉部分 48 层,文本部分 32 层,patch 大小 14,Open CLIP 模型。 |
csp_darknet_53_ra_imagenet | 26.65M | 一个 CSP-DarkNet(跨阶段部分)图像分类模型,在随机增强的 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。 |
deeplab_v3_plus_resnet50_pascalvoc | 39.19M | DeepLabV3+ 模型,使用 ResNet50 作为图像编码器,并在语义边界数据集 (SBD) 增强的 Pascal VOC 数据集上训练,分类准确率 90.01,平均 IoU 0.63。 |
densenet_121_imagenet | 7.04M | 121 层的 DenseNet 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。 |
densenet_169_imagenet | 12.64M | 169 层的 DenseNet 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。 |
densenet_201_imagenet | 18.32M | 201 层的 DenseNet 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。 |
efficientnet_lite0_ra_imagenet | 4.65M | EfficientNet-Lite 模型,使用 RandAugment 方法在 ImageNet 1k 数据集上进行微调。 |
efficientnet_b0_ra_imagenet | 5.29M | EfficientNet B0 模型,使用 RandAugment 方法在 ImageNet 1k 数据集上进行预训练。 |
efficientnet_b0_ra4_e3600_r224_imagenet | 5.29M | 由 Ross Wightman 在 ImageNet 1k 数据集上预训练的 EfficientNet B0 模型。使用 timm 脚本和受 MobileNet-V4 small 启发、并结合 timm 和“ResNet Strikes Back”常用超参数训练。 |
efficientnet_es_ra_imagenet | 5.44M | EfficientNet-EdgeTPU Small 模型,使用 RandAugment 方法在 ImageNet 1k 数据集上训练。 |
efficientnet_em_ra2_imagenet | 6.90M | EfficientNet-EdgeTPU Medium 模型,使用 RandAugment2 方法在 ImageNet 1k 数据集上训练。 |
efficientnet_b1_ft_imagenet | 7.79M | EfficientNet B1 模型,在 ImageNet 1k 数据集上进行微调。 |
efficientnet_b1_ra4_e3600_r240_imagenet | 7.79M | 由 Ross Wightman 在 ImageNet 1k 数据集上预训练的 EfficientNet B1 模型。使用 timm 脚本和受 MobileNet-V4 small 启发、并结合 timm 和“ResNet Strikes Back”常用超参数训练。 |
efficientnet_b2_ra_imagenet | 9.11M | EfficientNet B2 模型,使用 RandAugment 方法在 ImageNet 1k 数据集上进行预训练。 |
efficientnet_el_ra_imagenet | 10.59M | EfficientNet-EdgeTPU Large 模型,使用 RandAugment 方法在 ImageNet 1k 数据集上训练。 |
efficientnet_b3_ra2_imagenet | 12.23M | EfficientNet B3 模型,使用 RandAugment2 方法在 ImageNet 1k 数据集上进行预训练。 |
efficientnet2_rw_t_ra2_imagenet | 13.65M | EfficientNet-v2 Tiny 模型,使用 RandAugment2 方法在 ImageNet 1k 数据集上训练。 |
efficientnet_b4_ra2_imagenet | 19.34M | EfficientNet B4 模型,使用 RandAugment2 方法在 ImageNet 1k 数据集上进行预训练。 |
efficientnet2_rw_s_ra2_imagenet | 23.94M | EfficientNet-v2 Small 模型,使用 RandAugment2 方法在 ImageNet 1k 数据集上训练。 |
efficientnet_b5_sw_imagenet | 30.39M | 由 Ross Wightman 在 ImageNet 12k 数据集上预训练的 EfficientNet B5 模型。基于 Swin Transformer 训练/预训练方法,并进行修改(与 DeiT 和 ConvNeXt 方法相关)。 |
efficientnet_b5_sw_ft_imagenet | 30.39M | 由 Ross Wightman 在 ImageNet 12k 数据集上预训练并在 ImageNet-1k 数据集上微调的 EfficientNet B5 模型。基于 Swin Transformer 训练/预训练方法,并进行修改(与 DeiT 和 ConvNeXt 方法相关)。 |
efficientnet2_rw_m_agc_imagenet | 53.24M | EfficientNet-v2 Medium 模型,在 ImageNet 1k 数据集上使用自适应梯度裁剪训练。 |
gemma3_1b | 999.89M | 10 亿参数,26 层,仅文本预训练 Gemma3 模型。 |
gemma3_instruct_1b | 999.89M | 10 亿参数,26 层,仅文本指令微调 Gemma3 模型。 |
gemma3_4b_text | 3.88B | 40 亿参数,34 层,仅文本预训练 Gemma3 模型。 |
gemma3_instruct_4b_text | 3.88B | 40 亿参数,34 层,仅文本指令微调 Gemma3 模型。 |
gemma3_4b | 4.30B | 40 亿参数,34 层,视觉+文本预训练 Gemma3 模型。 |
gemma3_instruct_4b | 4.30B | 40 亿参数,34 层,视觉+文本指令微调 Gemma3 模型。 |
gemma3_12b_text | 11.77B | 120 亿参数,48 层,仅文本预训练 Gemma3 模型。 |
gemma3_instruct_12b_text | 11.77B | 120 亿参数,48 层,仅文本指令微调 Gemma3 模型。 |
gemma3_12b | 12.19B | 120 亿参数,48 层,视觉+文本预训练 Gemma3 模型。 |
gemma3_instruct_12b | 12.19B | 120 亿参数,48 层,视觉+文本指令微调 Gemma3 模型。 |
gemma3_27b_text | 27.01B | 270 亿参数,62 层,仅文本预训练 Gemma3 模型。 |
gemma3_instruct_27b_text | 27.01B | 270 亿参数,62 层,仅文本指令微调 Gemma3 模型。 |
gemma3_27b | 27.43B | 270 亿参数,62 层,视觉+文本预训练 Gemma3 模型。 |
gemma3_instruct_27b | 27.43B | 270 亿参数,62 层,视觉+文本指令微调 Gemma3 模型。 |
mit_b0_ade20k_512 | 3.32M | MiT (MixTransformer) 模型,包含 8 个 Transformer 块。 |
mit_b0_cityscapes_1024 | 3.32M | MiT (MixTransformer) 模型,包含 8 个 Transformer 块。 |
mit_b1_ade20k_512 | 13.16M | MiT (MixTransformer) 模型,包含 8 个 Transformer 块。 |
mit_b1_cityscapes_1024 | 13.16M | MiT (MixTransformer) 模型,包含 8 个 Transformer 块。 |
mit_b2_ade20k_512 | 24.20M | MiT (MixTransformer) 模型,包含 16 个 Transformer 块。 |
mit_b2_cityscapes_1024 | 24.20M | MiT (MixTransformer) 模型,包含 16 个 Transformer 块。 |
mit_b3_ade20k_512 | 44.08M | MiT (MixTransformer) 模型,包含 28 个 Transformer 块。 |
mit_b3_cityscapes_1024 | 44.08M | MiT (MixTransformer) 模型,包含 28 个 Transformer 块。 |
mit_b4_ade20k_512 | 60.85M | MiT (MixTransformer) 模型,包含 41 个 Transformer 块。 |
mit_b4_cityscapes_1024 | 60.85M | MiT (MixTransformer) 模型,包含 41 个 Transformer 块。 |
mit_b5_ade20k_640 | 81.45M | MiT (MixTransformer) 模型,包含 52 个 Transformer 块。 |
mit_b5_cityscapes_1024 | 81.45M | MiT (MixTransformer) 模型,包含 52 个 Transformer 块。 |
mobilenet_v3_small_050_imagenet | 278.78K | 小型 Mobilenet V3 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。通道乘数减半。 |
mobilenet_v3_small_100_imagenet | 939.12K | 小型 Mobilenet V3 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。使用基线通道乘数。 |
mobilenet_v3_large_100_imagenet | 3.00M | 大型 Mobilenet V3 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。使用基线通道乘数。 |
mobilenet_v3_large_100_imagenet_21k | 3.00M | 大型 Mobilenet V3 模型,在 ImageNet 21k 数据集上以 224x224 的分辨率进行预训练。使用基线通道乘数。 |
pali_gemma_3b_mix_224 | 2.92B | 图像尺寸 224,混合微调,文本序列长度 256 |
pali_gemma_3b_224 | 2.92B | 图像尺寸 224,预训练,文本序列长度 128 |
pali_gemma_3b_mix_448 | 2.92B | 图像尺寸 448,混合微调,文本序列长度 512 |
pali_gemma_3b_448 | 2.92B | 图像尺寸 448,预训练,文本序列长度 512 |
pali_gemma_3b_896 | 2.93B | 图像尺寸 896,预训练,文本序列长度 512 |
pali_gemma2_mix_3b_224 | 3.03B | 30 亿参数,图像尺寸 224,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 2B 语言模型的 26 层。此模型已在广泛的视觉-语言任务和领域上进行微调。 |
pali_gemma2_pt_3b_224 | 3.03B | 30 亿参数,图像尺寸 224,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 2B 语言模型的 26 层。此模型已在混合数据集上进行预训练。 |
pali_gemma_2_ft_docci_3b_448 | 3.03B | 30 亿参数,图像尺寸 448,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 2B 语言模型的 26 层。此模型已在 DOCCI 数据集上进行微调,以改进包含细粒度细节的描述。 |
pali_gemma2_mix_3b_448 | 3.03B | 30 亿参数,图像尺寸 448,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 2B 语言模型的 26 层。此模型已在广泛的视觉-语言任务和领域上进行微调。 |
pali_gemma2_pt_3b_448 | 3.03B | 30 亿参数,图像尺寸 448,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 2B 语言模型的 26 层。此模型已在混合数据集上进行预训练。 |
pali_gemma2_pt_3b_896 | 3.04B | 30 亿参数,图像尺寸 896,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 2B 语言模型的 26 层。此模型已在混合数据集上进行预训练。 |
pali_gemma2_mix_10b_224 | 9.66B | 100 亿参数,图像尺寸 224,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 9B 语言模型的 42 层。此模型已在广泛的视觉-语言任务和领域上进行微调。 |
pali_gemma2_pt_10b_224 | 9.66B | 100 亿参数,图像尺寸 224,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 9B 语言模型的 42 层。此模型已在混合数据集上进行预训练。 |
pali_gemma2_ft_docci_10b_448 | 9.66B | 100 亿参数,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 9B 语言模型的 42 层。此模型已在 DOCCI 数据集上进行微调,以改进包含细粒度细节的描述。 |
pali_gemma2_mix_10b_448 | 9.66B | 100 亿参数,图像尺寸 448,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 9B 语言模型的 42 层。此模型已在广泛的视觉-语言任务和领域上进行微调。 |
pali_gemma2_pt_10b_448 | 9.66B | 100 亿参数,图像尺寸 448,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 9B 语言模型的 42 层。此模型已在混合数据集上进行预训练。 |
pali_gemma2_pt_10b_896 | 9.67B | 100 亿参数,图像尺寸 896,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 9B 语言模型的 42 层。此模型已在混合数据集上进行预训练。 |
pali_gemma2_mix_28b_224 | 27.65B | 280 亿参数,图像尺寸 224,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 27B 语言模型的 46 层。此模型已在广泛的视觉-语言任务和领域上进行微调。 |
pali_gemma2_mix_28b_448 | 27.65B | 280 亿参数,图像尺寸 448,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 27B 语言模型的 46 层。此模型已在广泛的视觉-语言任务和领域上进行微调。 |
pali_gemma2_pt_28b_224 | 27.65B | 280 亿参数,图像尺寸 224,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 27B 语言模型的 46 层。此模型已在混合数据集上进行预训练。 |
pali_gemma2_pt_28b_448 | 27.65B | 280 亿参数,图像尺寸 448,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 27B 语言模型的 46 层。此模型已在混合数据集上进行预训练。 |
pali_gemma2_pt_28b_896 | 27.65B | 280 亿参数,图像尺寸 896,用于 SigLIP-So400m 视觉编码器的 27 层和 Gemma2 27B 语言模型的 46 层。此模型已在混合数据集上进行预训练。 |
resnet_18_imagenet | 11.19M | 18 层的 ResNet 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。 |
resnet_vd_18_imagenet | 11.72M | 18 层的 ResNetVD (ResNet with bag of tricks) 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。 |
resnet_vd_34_imagenet | 21.84M | 34 层的 ResNetVD (ResNet with bag of tricks) 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。 |
resnet_50_imagenet | 23.56M | 50 层的 ResNet 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。 |
resnet_v2_50_imagenet | 23.56M | 50 层的 ResNetV2 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。 |
resnet_vd_50_imagenet | 25.63M | 50 层的 ResNetVD (ResNet with bag of tricks) 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。 |
resnet_vd_50_ssld_imagenet | 25.63M | 50 层的 ResNetVD (ResNet with bag of tricks) 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率和知识蒸馏进行预训练。 |
resnet_vd_50_ssld_v2_imagenet | 25.63M | 50 层的 ResNetVD (ResNet with bag of tricks) 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率和知识蒸馏、AutoAugment 进行预训练。 |
resnet_vd_50_ssld_v2_fix_imagenet | 25.63M | 50 层的 ResNetVD (ResNet with bag of tricks) 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率和知识蒸馏、AutoAugment 进行预训练,并对分类头进行额外微调。 |
resnet_101_imagenet | 42.61M | 101 层的 ResNet 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。 |
resnet_v2_101_imagenet | 42.61M | 101 层的 ResNetV2 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。 |
resnet_vd_101_imagenet | 44.67M | 101 层的 ResNetVD (ResNet with bag of tricks) 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。 |
resnet_vd_101_ssld_imagenet | 44.67M | 101 层的 ResNetVD (ResNet with bag of tricks) 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率和知识蒸馏进行预训练。 |
resnet_152_imagenet | 58.30M | 152 层的 ResNet 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。 |
resnet_vd_152_imagenet | 60.36M | 152 层的 ResNetVD (ResNet with bag of tricks) 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。 |
resnet_vd_200_imagenet | 74.93M | 200 层的 ResNetVD (ResNet with bag of tricks) 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。 |
retinanet_resnet50_fpn_v2_coco | 31.56M | RetinaNet 模型,带有 ResNet50 主干网络,在 COCO 数据集上以 800x800 的分辨率进行微调,使用从 P5 层创建的 FPN 特征。 |
retinanet_resnet50_fpn_coco | 34.12M | RetinaNet 模型,带有 ResNet50 主干网络,在 COCO 数据集上以 800x800 的分辨率进行微调。 |
sam_base_sa1b | 93.74M | 在 SA1B 数据集上训练的基础 SAM 模型。 |
sam_huge_sa1b | 312.34M | 在 SA1B 数据集上训练的超大 SAM 模型。 |
sam_large_sa1b | 641.09M | 在 SA1B 数据集上训练的大型 SAM 模型。 |
siglip_base_patch16_224 | 203.16M | 2 亿参数,图像尺寸 224,在 WebLi 上预训练。 |
siglip_base_patch16_256 | 203.20M | 2 亿参数,图像尺寸 256,在 WebLi 上预训练。 |
siglip_base_patch16_384 | 203.45M | 2 亿参数,图像尺寸 384,在 WebLi 上预训练。 |
siglip_base_patch16_512 | 203.79M | 2 亿参数,图像尺寸 512,在 WebLi 上预训练。 |
siglip_base_patch16_256_multilingual | 370.63M | 3.7 亿参数,图像尺寸 256,在 WebLi 上预训练。 |
siglip2_base_patch16_224 | 375.19M | 3.75 亿参数,patch 大小 16,图像尺寸 224,在 WebLi 上预训练。 |
siglip2_base_patch16_256 | 375.23M | 3.75 亿参数,patch 大小 16,图像尺寸 256,在 WebLi 上预训练。 |
siglip2_base_patch32_256 | 376.86M | 3.76 亿参数,patch 大小 32,图像尺寸 256,在 WebLi 上预训练。 |
siglip2_base_patch16_384 | 376.86M | 3.76 亿参数,patch 大小 16,图像尺寸 384,在 WebLi 上预训练。 |
siglip_large_patch16_256 | 652.15M | 6.52 亿参数,图像尺寸 256,在 WebLi 上预训练。 |
siglip_large_patch16_384 | 652.48M | 6.52 亿参数,图像尺寸 384,在 WebLi 上预训练。 |
siglip_so400m_patch14_224 | 877.36M | 8.77 亿参数,图像尺寸 224,形状优化版本,在 WebLi 上预训练。 |
siglip_so400m_patch14_384 | 877.96M | 8.77 亿参数,图像尺寸 384,形状优化版本,在 WebLi 上预训练。 |
siglip2_large_patch16_256 | 881.53M | 8.81 亿参数,patch 大小 16,图像尺寸 256,在 WebLi 上预训练。 |
siglip2_large_patch16_384 | 881.86M | 8.81 亿参数,patch 大小 16,图像尺寸 384,在 WebLi 上预训练。 |
siglip2_large_patch16_512 | 882.31M | 8.82 亿参数,patch 大小 16,图像尺寸 512,形状优化版本,在 WebLi 上预训练。 |
siglip_so400m_patch16_256_i18n | 1.13B | 11 亿参数,图像尺寸 256,形状优化版本,在 WebLi 上预训练。 |
siglip2_so400m_patch14_224 | 1.14B | 11 亿参数,patch 大小 14,图像尺寸 224,形状优化版本,在 WebLi 上预训练。 |
siglip2_so400m_patch16_256 | 1.14B | 11 亿参数,patch 大小 16,图像尺寸 256,形状优化版本,在 WebLi 上预训练。 |
siglip2_so400m_patch14_384 | 1.14B | 11 亿参数,patch 大小 14,图像尺寸 224,形状优化版本,在 WebLi 上预训练。 |
siglip2_so400m_patch16_384 | 1.14B | 11 亿参数,patch 大小 16,图像尺寸 384,形状优化版本,在 WebLi 上预训练。 |
siglip2_so400m_patch16_512 | 1.14B | 11 亿参数,patch 大小 16,图像尺寸 512,形状优化版本,在 WebLi 上预训练。 |
siglip2_giant_opt_patch16_256 | 1.87B | 18 亿参数,patch 大小 16,图像尺寸 256,在 WebLi 上预训练。 |
siglip2_giant_opt_patch16_384 | 1.87B | 18 亿参数,patch 大小 16,图像尺寸 384,在 WebLi 上预训练。 |
vgg_11_imagenet | 9.22M | 11 层的 VGG 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。 |
vgg_13_imagenet | 9.40M | 13 层的 VGG 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。 |
vgg_16_imagenet | 14.71M | 16 层的 VGG 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。 |
vgg_19_imagenet | 20.02M | 19 层的 VGG 模型,在 ImageNet 1k 数据集上以 224x224 的分辨率进行预训练。 |
vit_base_patch16_224_imagenet | 85.80M | ViT-B16 模型,在 ImageNet 1k 数据集上以 224x224 的图像分辨率进行预训练。 |
vit_base_patch16_224_imagenet21k | 85.80M | ViT-B16 主干网络,在 ImageNet 21k 数据集上以 224x224 的图像分辨率进行预训练。 |
vit_base_patch16_384_imagenet | 86.09M | ViT-B16 模型,在 ImageNet 1k 数据集上以 384x384 的图像分辨率进行预训练。 |
vit_base_patch32_224_imagenet21k | 87.46M | ViT-B32 主干网络,在 ImageNet 21k 数据集上以 224x224 的图像分辨率进行预训练。 |
vit_base_patch32_384_imagenet | 87.53M | ViT-B32 模型,在 ImageNet 1k 数据集上以 384x384 的图像分辨率进行预训练。 |
vit_large_patch16_224_imagenet | 303.30M | ViT-L16 模型,在 ImageNet 1k 数据集上以 224x224 的图像分辨率进行预训练。 |
vit_large_patch16_224_imagenet21k | 303.30M | ViT-L16 主干网络,在 ImageNet 21k 数据集上以 224x224 的图像分辨率进行预训练。 |
vit_large_patch16_384_imagenet | 303.69M | ViT-L16 模型,在 ImageNet 1k 数据集上以 384x384 的图像分辨率进行预训练。 |
vit_large_patch32_224_imagenet21k | 305.51M | ViT-L32 主干网络,在 ImageNet 21k 数据集上以 224x224 的图像分辨率进行预训练。 |
vit_large_patch32_384_imagenet | 305.61M | ViT-L32 模型,在 ImageNet 1k 数据集上以 384x384 的图像分辨率进行预训练。 |
vit_huge_patch14_224_imagenet21k | 630.76M | ViT-H14 主干网络,在 ImageNet 21k 数据集上以 224x224 的图像分辨率进行预训练。 |