SAMImageConverter

[源代码]

SAMImageConverter

keras_hub.layers.SAMImageConverter(
    image_size=None,
    scale=None,
    offset=None,
    crop_to_aspect_ratio=True,
    pad_to_aspect_ratio=False,
    interpolation="bilinear",
    antialias=False,
    bounding_box_format="yxyx",
    data_format=None,
    **kwargs
)

将原始图像预处理为模型可用输入。

此类将原始图像转换为模型可用输入。此转换按以下步骤进行:

  1. 使用 image_size 调整图像大小。如果 image_sizeNone,此步骤将被跳过。
  2. 将图像乘以 scale 进行缩放,scale 可以是全局的或逐通道的。如果 scaleNone,此步骤将被跳过。
  3. 通过加上 offset 对图像进行偏移,offset 可以是全局的或逐通道的。如果 offsetNone,此步骤将被跳过。

此层将接受通道在后或通道在前的格式的原始图像张量作为输入,并输出用于建模的预处理图像输入。此张量可以是批处理的(秩 4),也可以是未批处理的(秩 3)。

此层可与 from_preset() 构造函数一起使用,以加载一个用于对特定预训练模型的图像进行缩放和调整大小的层。以这种方式使用此层允许编写在模型检查点之间切换时无需更新的预处理代码。

参数

  • image_size: (int, int) 元组或 None。图像的输出尺寸,不包括通道轴。如果为 None,则输入不会被调整大小。
  • scale: float、浮点数元组或 None。应用于输入的比例因子。如果 scale 是单个浮点数,则整个输入将乘以 scale。如果 scale 是一个元组,则假定它包含对输入图像的每个通道应用的逐通道比例值。如果 scaleNone,则不应用缩放。
  • offset: float、浮点数元组或 None。应用于输入的偏移量。如果 offset 是单个浮点数,则整个输入将与 offset 相加。如果 offset 是一个元组,则假定它包含对输入图像的每个通道应用的逐通道偏移值。如果 offsetNone,则不应用缩放。
  • crop_to_aspect_ratio: 如果为 True,则在调整图像大小时不扭曲宽高比。当原始宽高比与目标宽高比不同时,将对输出图像进行裁剪,以返回图像中与目标宽高比匹配的可能的最大窗口(大小为 (height, width))。默认情况下(crop_to_aspect_ratio=False),可能不会保留宽高比。
  • interpolation: 字符串,插值方法。支持 "bilinear""nearest""bicubic""lanczos3""lanczos5"。默认为 "bilinear"
  • antialias: 对图像进行下采样时是否使用抗锯齿滤波器。默认为 False
  • bounding_box_format: 字符串,指定边界框的格式,可以是 "xyxy""rel_xyxy""xywh""center_xywh""yxyx""rel_yxyx" 之一。指定将与图像一起调整大小至 image_size 的边界框的格式。要将边界框传递给此层,请在调用该层时传递一个包含键 "images""bounding_boxes" 的字典。
  • data_format: 字符串,可以是 "channels_last""channels_first"。输入中维度的顺序。"channels_last" 对应于形状为 (batch, height, width, channels) 的输入,而 "channels_first" 对应于形状为 (batch, channels, height, width) 的输入。它默认为您的 Keras 配置文件 ~/.keras/keras.json 中的 image_data_format 值。如果您从未设置它,则默认为 "channels_last"

示例

# Resize raw images and scale them to [0, 1].
converter = keras_hub.layers.ImageConverter(
    image_size=(128, 128),
    scale=1. / 255,
)
converter(np.random.randint(0, 256, size=(2, 512, 512, 3)))

# Resize images to the specific size needed for a PaliGemma preset.
converter = keras_hub.layers.ImageConverter.from_preset(
    "pali_gemma_3b_224"
)
converter(np.random.randint(0, 256, size=(2, 512, 512, 3)))

[源代码]

from_preset 方法

SAMImageConverter.from_preset(preset, **kwargs)

从模型预设实例化一个 keras_hub.layers.ImageConverter

预设是用于保存和加载预训练模型的配置、权重和其他文件资产的目录。preset 可以按以下方式之一传递:

  1. 内置预设标识符,例如 'pali_gemma_3b_224'
  2. Kaggle Models 句柄,例如 'kaggle://user/paligemma/keras/pali_gemma_3b_224'
  3. Hugging Face 句柄,例如 'hf://user/pali_gemma_3b_224'
  4. 本地预设目录路径,例如 './pali_gemma_3b_224'

您可以运行 cls.presets.keys() 列出该类中所有可用的内置预设。

参数

  • preset: 字符串。内置预设标识符、Kaggle Models 句柄、Hugging Face 句柄或本地目录路径。
  • load_weights: bool。如果为 True,则权重将被加载到模型架构中。如果为 False,则权重将被随机初始化。

示例

batch = np.random.randint(0, 256, size=(2, 512, 512, 3))

# Resize images for `"pali_gemma_3b_224"`.
converter = keras_hub.layers.ImageConverter.from_preset(
    "pali_gemma_3b_224"
)
converter(batch) # # Output shape (2, 224, 224, 3)

# Resize images for `"pali_gemma_3b_448"` without cropping.
converter = keras_hub.layers.ImageConverter.from_preset(
    "pali_gemma_3b_448",
    crop_to_aspect_ratio=False,
)
converter(batch) # # Output shape (2, 448, 448, 3)
预设 参数 描述
sam_base_sa1b 93.74M 在 SA1B 数据集上训练的基础 SAM 模型。
sam_huge_sa1b 312.34M 在 SA1B 数据集上训练的巨型 SAM 模型。
sam_large_sa1b 641.09M 在 SA1B 数据集上训练的大型 SAM 模型。