SAMImageConverter

[source]

SAMImageConverter

keras_hub.layers.SAMImageConverter(
    image_size=None,
    scale=None,
    offset=None,
    crop_to_aspect_ratio=True,
    pad_to_aspect_ratio=False,
    interpolation="bilinear",
    bounding_box_format="yxyx",
    data_format=None,
    **kwargs
)

将原始图像预处理为模型就绪的输入。

此类将原始图像转换为模型就绪的输入。此转换按以下步骤进行

  1. 使用 image_size 调整图像大小。如果 image_sizeNone,则将跳过此步骤。
  2. 通过乘以 scale 来缩放图像,scale 可以是全局的或按通道的。如果 scaleNone,则将跳过此步骤。
  3. 通过添加 offset 来偏移图像,offset 可以是全局的或按通道的。如果 offsetNone,则将跳过此步骤。

该层将接受通道最后或通道优先格式的原始图像张量作为输入,并输出用于建模的预处理图像输入。此张量可以是批量的(秩 4)或非批量的(秩 3)。

此层可以与 from_preset() 构造函数一起使用,以加载一个层,该层将为特定的预训练模型重新缩放和调整图像大小。以这种方式使用该层允许编写在模型检查点之间切换时不需要更新的预处理代码。

参数

  • image_size: (int, int) 元组或 None。图像的输出大小,不包括通道轴。如果为 None,则不会调整输入大小。
  • scale: 浮点数,浮点数元组或 None。应用于输入的比例。如果 scale 是单个浮点数,则整个输入将乘以 scale。如果 scale 是一个元组,则假定它包含针对输入图像的每个通道相乘的每通道比例值。如果 scaleNone,则不应用缩放。
  • offset: 浮点数,浮点数元组或 None。应用于输入的偏移量。如果 offset 是单个浮点数,则整个输入将与 offset 相加。如果 offset 是一个元组,则假定它包含针对输入图像的每个通道相加的每通道偏移值。如果 offsetNone,则不应用缩放。
  • crop_to_aspect_ratio: 如果为 True,则在不失真纵横比的情况下调整图像大小。当原始纵横比与目标纵横比不同时,输出图像将被裁剪,以便返回图像中与目标纵横比匹配的最大可能窗口(大小为 (height, width))。默认情况下(crop_to_aspect_ratio=False),纵横比可能无法保留。
  • interpolation: 字符串,插值方法。支持 "bilinear""nearest""bicubic""lanczos3""lanczos5"。默认为 "bilinear"
  • bounding_box_format: 一个字符串,指定边界框的格式,为 "xyxy""rel_xyxy""xywh""center_xywh""yxyx""rel_yxyx" 之一。指定将与图像一起调整大小为 image_size 的边界框的格式。要将边界框传递到此层,请在调用该层时传递带有键 "images""bounding_boxes" 的字典。
  • data_format: 字符串,"channels_last""channels_first"。输入中维度的顺序。 "channels_last" 对应于形状为 (batch, height, width, channels) 的输入,而 "channels_first" 对应于形状为 (batch, channels, height, width) 的输入。它默认为在您的 Keras 配置文件 ~/.keras/keras.json 中找到的 image_data_format 值。如果您从未设置它,那么它将是 "channels_last"

示例

# Resize raw images and scale them to [0, 1].
converter = keras_hub.layers.ImageConverter(
    image_size=(128, 128),
    scale=1. / 255,
)
converter(np.random.randint(0, 256, size=(2, 512, 512, 3)))

# Resize images to the specific size needed for a PaliGemma preset.
converter = keras_hub.layers.ImageConverter.from_preset(
    "pali_gemma_3b_224"
)
converter(np.random.randint(0, 256, size=(2, 512, 512, 3)))

[source]

from_preset 方法

SAMImageConverter.from_preset(preset, **kwargs)

从模型预设实例化 keras_hub.layers.ImageConverter

预设是用于保存和加载预训练模型的配置、权重和其他文件资产的目录。preset 可以作为以下之一传递

  1. 内置预设标识符,例如 'pali_gemma_3b_224'
  2. Kaggle Models 句柄,例如 'kaggle://user/paligemma/keras/pali_gemma_3b_224'
  3. Hugging Face 句柄,例如 'hf://user/pali_gemma_3b_224'
  4. 本地预设目录的路径,例如 './pali_gemma_3b_224'

您可以运行 cls.presets.keys() 以列出该类上所有可用的内置预设。

参数

  • preset: 字符串。内置预设标识符、Kaggle Models 句柄、Hugging Face 句柄或本地目录的路径。
  • load_weights: 布尔值。如果为 True,则权重将加载到模型架构中。如果为 False,则权重将被随机初始化。

示例

batch = np.random.randint(0, 256, size=(2, 512, 512, 3))

# Resize images for `"pali_gemma_3b_224"`.
converter = keras_hub.layers.ImageConverter.from_preset(
    "pali_gemma_3b_224"
)
converter(batch) # # Output shape (2, 224, 224, 3)

# Resize images for `"pali_gemma_3b_448"` without cropping.
converter = keras_hub.layers.ImageConverter.from_preset(
    "pali_gemma_3b_448",
    crop_to_aspect_ratio=False,
)
converter(batch) # # Output shape (2, 448, 448, 3)
预设 参数 描述
sam_base_sa1b 93.74M 在 SA1B 数据集上训练的基础 SAM 模型。
sam_huge_sa1b 312.34M 在 SA1B 数据集上训练的巨型 SAM 模型。
sam_large_sa1b 641.09M 在 SA1B 数据集上训练的大型 SAM 模型。