CLIPImageConverter
类keras_hub.layers.CLIPImageConverter(
image_size=None,
scale=None,
offset=None,
crop_to_aspect_ratio=True,
pad_to_aspect_ratio=False,
interpolation="bilinear",
antialias=False,
bounding_box_format="yxyx",
data_format=None,
**kwargs
)
将原始图像预处理为模型可用的输入。
此类将原始图像转换为模型可用的输入。此转换过程包括以下步骤:
image_size
调整图像大小。如果 image_size
为 None
,则跳过此步骤。scale
来缩放图像,scale
可以是全局值或按通道值。如果 scale
为 None
,则跳过此步骤。offset
来偏移图像,offset
可以是全局值或按通道值。如果 offset
为 None
,则跳过此步骤。该层将接收通道在后(channels last)或通道在前(channels first)格式的原始图像张量作为输入,并输出用于建模的预处理图像输入。此张量可以是批处理的(秩为 4)或非批处理的(秩为 3)。
该层可以与 from_preset()
构造函数一起使用,以加载一个层,该层将为特定的预训练模型缩放和调整图像大小。以这种方式使用该层,可以在切换模型检查点时,无需更新预处理代码。
参数
(int, int)
元组或 None
。图像的输出大小,不包括通道轴。如果为 None
,则不调整输入大小。None
。应用于输入的缩放因子。如果 scale
是单个浮点数,则整个输入将乘以 scale
。如果 scale
是元组,则假定它包含按通道的缩放值,用于乘以输入图像的每个通道。如果 scale
为 None
,则不应用缩放。None
。应用于输入的偏移量。如果 offset
是单个浮点数,则整个输入将与 offset
相加。如果 offset
是元组,则假定它包含按通道的偏移值,用于与输入图像的每个通道相加。如果 offset
为 None
,则不应用偏移。True
,则在调整图像大小时不扭曲宽高比。当原始宽高比与目标宽高比不同时,输出图像将被裁剪,以返回图像中与目标宽高比匹配的最大可能窗口(大小为 (height, width)
)。默认情况下(crop_to_aspect_ratio=False
),宽高比可能不会保留。"bilinear"
(双线性)、"nearest"
(最近邻)、"bicubic"
(双三次)、"lanczos3"
、"lanczos5"
。默认为 "bilinear"
。False
。"xyxy"
、"rel_xyxy"
、"xywh"
、"center_xywh"
、"yxyx"
、"rel_yxyx"
之一。指定将与图像一起调整到 image_size
大小的边界框的格式。要将边界框传递给此层,请在调用该层时传递一个包含键 "images"
和 "bounding_boxes"
的字典。"channels_last"
(通道在后)或 "channels_first"
(通道在前)。输入中维度的顺序。"channels_last"
对应于形状为 (batch, height, width, channels)
的输入,而 "channels_first"
对应于形状为 (batch, channels, height, width)
的输入。它默认为您的 Keras 配置文件 ~/.keras/keras.json
中找到的 image_data_format
值。如果您从未设置它,则默认为 "channels_last"
。示例
# Resize raw images and scale them to [0, 1].
converter = keras_hub.layers.ImageConverter(
image_size=(128, 128),
scale=1. / 255,
)
converter(np.random.randint(0, 256, size=(2, 512, 512, 3)))
# Resize images to the specific size needed for a PaliGemma preset.
converter = keras_hub.layers.ImageConverter.from_preset(
"pali_gemma_3b_224"
)
converter(np.random.randint(0, 256, size=(2, 512, 512, 3)))
from_preset
方法CLIPImageConverter.from_preset(preset, **kwargs)
从模型预设实例化一个 keras_hub.layers.ImageConverter
。
预设是用于保存和加载预训练模型的配置文件、权重和其他文件资产的目录。preset
可以作为以下之一传入:
'pali_gemma_3b_224'
'kaggle://user/paligemma/keras/pali_gemma_3b_224'
'hf://user/pali_gemma_3b_224'
'./pali_gemma_3b_224'
您可以运行 cls.presets.keys()
来列出该类上所有可用的内置预设。
参数
True
,则将权重加载到模型架构中。如果为 False
,则权重将被随机初始化。示例
batch = np.random.randint(0, 256, size=(2, 512, 512, 3))
# Resize images for `"pali_gemma_3b_224"`.
converter = keras_hub.layers.ImageConverter.from_preset(
"pali_gemma_3b_224"
)
converter(batch) # # Output shape (2, 224, 224, 3)
# Resize images for `"pali_gemma_3b_448"` without cropping.
converter = keras_hub.layers.ImageConverter.from_preset(
"pali_gemma_3b_448",
crop_to_aspect_ratio=False,
)
converter(batch) # # Output shape (2, 448, 448, 3)
预设 | 参数 | 描述 |
---|---|---|
clip_vit_base_patch16 | 149.62M | 1.5亿参数,视觉部分12层,文本部分12层,patch 大小为 16 的 CLIP 模型。 |
clip_vit_base_patch32 | 151.28M | 1.51亿参数,视觉部分12层,文本部分12层,patch 大小为 32 的 CLIP 模型。 |
clip_vit_b_32_laion2b_s34b_b79k | 151.28M | 1.51亿参数,视觉部分12层,文本部分12层,patch 大小为 32 的 Open CLIP 模型。 |
clip_vit_large_patch14 | 427.62M | 4.28亿参数,视觉部分24层,文本部分12层,patch 大小为 14 的 CLIP 模型。 |
clip_vit_large_patch14_336 | 427.94M | 4.28亿参数,视觉部分24层,文本部分12层,patch 大小为 14,图像大小为 336 的 CLIP 模型。 |
clip_vit_h_14_laion2b_s32b_b79k | 986.11M | 9.86亿参数,视觉部分32层,文本部分24层,patch 大小为 14 的 Open CLIP 模型。 |
clip_vit_g_14_laion2b_s12b_b42k | 1.37B | 14亿参数,视觉部分40层,文本部分24层,patch 大小为 14 的 Open CLIP 模型。 |
clip_vit_bigg_14_laion2b_39b_b160k | 2.54B | 25亿参数,视觉部分48层,文本部分32层,patch 大小为 14 的 Open CLIP 模型。 |