KerasHub: 预训练模型 / API 文档 / 模型架构 / CLIP / CLIPImageConverter

CLIPImageConverter

[源代码]

CLIPImageConverter

keras_hub.layers.CLIPImageConverter(
    image_size=None,
    scale=None,
    offset=None,
    crop_to_aspect_ratio=True,
    pad_to_aspect_ratio=False,
    interpolation="bilinear",
    antialias=False,
    bounding_box_format="yxyx",
    data_format=None,
    **kwargs
)

将原始图像预处理为模型可用的输入。

此类将原始图像转换为模型可用的输入。此转换过程包括以下步骤:

  1. 使用 image_size 调整图像大小。如果 image_sizeNone,则跳过此步骤。
  2. 通过乘以 scale 来缩放图像,scale 可以是全局值或按通道值。如果 scaleNone,则跳过此步骤。
  3. 通过加上 offset 来偏移图像,offset 可以是全局值或按通道值。如果 offsetNone,则跳过此步骤。

该层将接收通道在后(channels last)或通道在前(channels first)格式的原始图像张量作为输入,并输出用于建模的预处理图像输入。此张量可以是批处理的(秩为 4)或非批处理的(秩为 3)。

该层可以与 from_preset() 构造函数一起使用,以加载一个层,该层将为特定的预训练模型缩放和调整图像大小。以这种方式使用该层,可以在切换模型检查点时,无需更新预处理代码。

参数

  • image_size: (int, int) 元组或 None。图像的输出大小,不包括通道轴。如果为 None,则不调整输入大小。
  • scale: float、浮点数元组或 None。应用于输入的缩放因子。如果 scale 是单个浮点数,则整个输入将乘以 scale。如果 scale 是元组,则假定它包含按通道的缩放值,用于乘以输入图像的每个通道。如果 scaleNone,则不应用缩放。
  • offset: float、浮点数元组或 None。应用于输入的偏移量。如果 offset 是单个浮点数,则整个输入将与 offset 相加。如果 offset 是元组,则假定它包含按通道的偏移值,用于与输入图像的每个通道相加。如果 offsetNone,则不应用偏移。
  • crop_to_aspect_ratio: 如果为 True,则在调整图像大小时不扭曲宽高比。当原始宽高比与目标宽高比不同时,输出图像将被裁剪,以返回图像中与目标宽高比匹配的最大可能窗口(大小为 (height, width))。默认情况下(crop_to_aspect_ratio=False),宽高比可能不会保留。
  • interpolation: 字符串,插值方法。支持 "bilinear"(双线性)、"nearest"(最近邻)、"bicubic"(双三次)、"lanczos3""lanczos5"。默认为 "bilinear"
  • antialias: 在对图像进行下采样时是否使用抗锯齿滤波器。默认为 False
  • bounding_box_format: 一个字符串,指定边界框的格式,可以是 "xyxy""rel_xyxy""xywh""center_xywh""yxyx""rel_yxyx" 之一。指定将与图像一起调整到 image_size 大小的边界框的格式。要将边界框传递给此层,请在调用该层时传递一个包含键 "images""bounding_boxes" 的字典。
  • data_format: 字符串,可以是 "channels_last"(通道在后)或 "channels_first"(通道在前)。输入中维度的顺序。"channels_last" 对应于形状为 (batch, height, width, channels) 的输入,而 "channels_first" 对应于形状为 (batch, channels, height, width) 的输入。它默认为您的 Keras 配置文件 ~/.keras/keras.json 中找到的 image_data_format 值。如果您从未设置它,则默认为 "channels_last"

示例

# Resize raw images and scale them to [0, 1].
converter = keras_hub.layers.ImageConverter(
    image_size=(128, 128),
    scale=1. / 255,
)
converter(np.random.randint(0, 256, size=(2, 512, 512, 3)))

# Resize images to the specific size needed for a PaliGemma preset.
converter = keras_hub.layers.ImageConverter.from_preset(
    "pali_gemma_3b_224"
)
converter(np.random.randint(0, 256, size=(2, 512, 512, 3)))

[源代码]

from_preset 方法

CLIPImageConverter.from_preset(preset, **kwargs)

从模型预设实例化一个 keras_hub.layers.ImageConverter

预设是用于保存和加载预训练模型的配置文件、权重和其他文件资产的目录。preset 可以作为以下之一传入:

  1. 内置预设标识符,例如 'pali_gemma_3b_224'
  2. Kaggle Models 句柄,例如 'kaggle://user/paligemma/keras/pali_gemma_3b_224'
  3. Hugging Face 句柄,例如 'hf://user/pali_gemma_3b_224'
  4. 本地预设目录的路径,例如 './pali_gemma_3b_224'

您可以运行 cls.presets.keys() 来列出该类上所有可用的内置预设。

参数

  • preset: 字符串。内置预设标识符、Kaggle Models 句柄、Hugging Face 句柄或本地目录的路径。
  • load_weights: 布尔值。如果为 True,则将权重加载到模型架构中。如果为 False,则权重将被随机初始化。

示例

batch = np.random.randint(0, 256, size=(2, 512, 512, 3))

# Resize images for `"pali_gemma_3b_224"`.
converter = keras_hub.layers.ImageConverter.from_preset(
    "pali_gemma_3b_224"
)
converter(batch) # # Output shape (2, 224, 224, 3)

# Resize images for `"pali_gemma_3b_448"` without cropping.
converter = keras_hub.layers.ImageConverter.from_preset(
    "pali_gemma_3b_448",
    crop_to_aspect_ratio=False,
)
converter(batch) # # Output shape (2, 448, 448, 3)
预设 参数 描述
clip_vit_base_patch16 149.62M 1.5亿参数,视觉部分12层,文本部分12层,patch 大小为 16 的 CLIP 模型。
clip_vit_base_patch32 151.28M 1.51亿参数,视觉部分12层,文本部分12层,patch 大小为 32 的 CLIP 模型。
clip_vit_b_32_laion2b_s34b_b79k 151.28M 1.51亿参数,视觉部分12层,文本部分12层,patch 大小为 32 的 Open CLIP 模型。
clip_vit_large_patch14 427.62M 4.28亿参数,视觉部分24层,文本部分12层,patch 大小为 14 的 CLIP 模型。
clip_vit_large_patch14_336 427.94M 4.28亿参数,视觉部分24层,文本部分12层,patch 大小为 14,图像大小为 336 的 CLIP 模型。
clip_vit_h_14_laion2b_s32b_b79k 986.11M 9.86亿参数,视觉部分32层,文本部分24层,patch 大小为 14 的 Open CLIP 模型。
clip_vit_g_14_laion2b_s12b_b42k 1.37B 14亿参数,视觉部分40层,文本部分24层,patch 大小为 14 的 Open CLIP 模型。
clip_vit_bigg_14_laion2b_39b_b160k 2.54B 25亿参数,视觉部分48层,文本部分32层,patch 大小为 14 的 Open CLIP 模型。