DFineImageConverter 类keras_hub.layers.DFineImageConverter(
image_size=None,
scale=None,
offset=None,
crop_to_aspect_ratio=True,
pad_to_aspect_ratio=False,
interpolation="bilinear",
antialias=False,
bounding_box_format="yxyx",
data_format=None,
**kwargs
)
将原始图像预处理为适合模型的输入。
该类将原始图像转换为适合模型的输入。此转换按以下步骤进行:
该层将接收一个 channels last 或 channels first 格式的原始图像张量作为输入,并输出一个用于建模的预处理图像输入。该张量可以是批处理的(秩为 4),也可以是非批处理的(秩为 3)。
此层可与 from_preset() 构造函数一起使用,以加载用于对特定预训练模型进行图像缩放和重塑的层。这样使用该层可以编写无需在模型检查点之间切换时更新的预处理代码。
参数
None。要应用于输入的缩放因子。如果 scale 是单个浮点数,则整个输入将乘以 scale。如果 scale 是元组,则假定其包含每个通道的缩放值,与输入图像的每个通道相乘。如果 scale 是 None,则不应用缩放。None。要应用于输入的偏移量。如果 offset 是单个浮点数,则整个输入将与 offset 相加。如果 offset 是元组,则假定其包含每个通道的偏移值,与输入图像的每个通道相加。如果 offset 是 None,则不应用偏移。True,则在不扭曲纵横比的情况下重塑图像。当原始纵横比与目标纵横比不同时,将裁剪输出图像,以便返回图像中(大小为 (height, width))与目标纵横比匹配的最大可能窗口。默认情况下(crop_to_aspect_ratio=False),可能不保留纵横比。"xyxy"、"rel_xyxy"、"xywh"、"center_xywh"、"yxyx"、"rel_yxyx" 中的一种。指定将与图像一起重塑到 image_size 的边界框的格式。要将边界框传递给此层,请在调用该层时传递一个包含 "images" 和 "bounding_boxes" 键的字典。"channels_last" 或 "channels_first"。输入中的维度顺序。"channels_last" 对应于形状为 (batch, height, width, channels) 的输入,而 "channels_first" 对应于形状为 (batch, channels, height, width) 的输入。它默认为 Keras 配置文件 ~/.keras/keras.json 中的 image_data_format 值。如果您从未设置过,则默认为 "channels_last"。示例
# Resize raw images and scale them to [0, 1].
converter = keras_hub.layers.ImageConverter(
image_size=(128, 128),
scale=1. / 255,
)
converter(np.random.randint(0, 256, size=(2, 512, 512, 3)))
# Resize images to the specific size needed for a PaliGemma preset.
converter = keras_hub.layers.ImageConverter.from_preset(
"pali_gemma_3b_224"
)
converter(np.random.randint(0, 256, size=(2, 512, 512, 3)))
from_preset 方法DFineImageConverter.from_preset(preset, **kwargs)
从模型预设实例化一个 `keras_hub.layers.ImageConverter`。
预设是一个包含配置、权重和其他文件资产的目录,用于保存和加载预训练模型。preset 可以作为以下之一传递:
您可以运行 `cls.presets.keys()` 来列出该类上所有可用的内置预设。
参数
示例
batch = np.random.randint(0, 256, size=(2, 512, 512, 3))
# Resize images for `"pali_gemma_3b_224"`.
converter = keras_hub.layers.ImageConverter.from_preset(
"pali_gemma_3b_224"
)
converter(batch) # # Output shape (2, 224, 224, 3)
# Resize images for `"pali_gemma_3b_448"` without cropping.
converter = keras_hub.layers.ImageConverter.from_preset(
"pali_gemma_3b_448",
crop_to_aspect_ratio=False,
)
converter(batch) # # Output shape (2, 448, 448, 3)
| 预设 | 参数 | 描述 |
|---|---|---|
| dfine_nano_coco | 3.79M | D-FINE Nano 模型,该系列中最小的变体,在 COCO 数据集上进行了预训练。非常适合计算资源有限的应用。 |
| dfine_small_coco | 10.33M | D-FINE Small 模型在 COCO 数据集上进行了预训练。在性能和计算效率之间取得了平衡。 |
| dfine_small_obj2coco | 10.33M | D-FINE Small 模型首先在 Objects365 上预训练,然后又在 COCO 上进行了微调,结合了广泛的特征学习和基准特定适应。 |
| dfine_small_obj365 | 10.62M | D-FINE Small 模型在大规模 Objects365 数据集上进行了预训练,增强了其识别各种对象的能力。 |
| dfine_medium_coco | 19.62M | D-FINE Medium 模型在 COCO 数据集上进行了预训练。是通用目标检测的扎实基线,性能强大。 |
| dfine_medium_obj2coco | 19.62M | D-FINE Medium 模型采用两阶段训练过程:在 Objects365 上预训练,然后进行 COCO 微调。 |
| dfine_medium_obj365 | 19.99M | D-FINE Medium 模型在 Objects365 数据集上进行了预训练。受益于更大、更多样化的预训练语料库。 |
| dfine_large_coco | 31.34M | D-FINE Large 模型在 COCO 数据集上进行了预训练。提供高精度,适用于更具挑战性的任务。 |
| dfine_large_obj2coco_e25 | 31.34M | D-FINE Large 模型在 Objects365 上预训练,然后在 COCO 上微调 25 个 epoch。一个高性能模型,具有专门的调优。 |
| dfine_large_obj365 | 31.86M | D-FINE Large 模型在 Objects365 数据集上进行了预训练,以提高泛化能力和在各种对象类别上的性能。 |
| dfine_xlarge_coco | 62.83M | D-FINE X-Large 模型,COCO 预训练系列中最大的变体,旨在在精度是首要任务的情况下实现最先进的性能。 |
| dfine_xlarge_obj2coco | 62.83M | D-FINE X-Large 模型,在 Objects365 上预训练,在 COCO 上微调,代表了该系列中在 COCO 类型任务上最强大的模型。 |
| dfine_xlarge_obj365 | 63.35M | D-FINE X-Large 模型在 Objects365 数据集上进行了预训练,通过利用预训练过程中的大量对象类别来提供最大性能。 |