text_dataset_from_directory 函数tf_keras.utils.text_dataset_from_directory(
directory,
labels="inferred",
label_mode="int",
class_names=None,
batch_size=32,
max_length=None,
shuffle=True,
seed=None,
validation_split=None,
subset=None,
follow_links=False,
)
从目录中的文本文件生成一个 tf.data.Dataset。
如果您的目录结构如下所示:
main_directory/
...class_a/
......a_text_1.txt
......a_text_2.txt
...class_b/
......b_text_1.txt
......b_text_2.txt
那么调用 text_dataset_from_directory(main_directory, labels='inferred') 将返回一个 tf.data.Dataset,它会生成来自子目录 class_a 和 class_b 的文本批次,以及标签 0 和 1(0 对应于 class_a,1 对应于 class_b)。
目前仅支持 .txt 文件。
参数
labels 为 "inferred",则它应该包含子目录,每个子目录包含一个类别的文本文件。否则,目录结构将被忽略。"inferred"(从目录结构生成标签)、None(无标签)或一个列表/元组,其中包含与目录中找到的文本文件数量相同的整数标签。标签应根据文本文件路径的字母数字顺序排序(在 Python 中通过 os.walk(directory) 获取)。labels 编码方式的字符串。选项包括:"int":表示标签编码为整数(例如,用于 sparse_categorical_crossentropy 损失)。"categorical":表示标签编码为分类向量(例如,用于 categorical_crossentropy 损失)。"binary":表示标签(只能有 2 个)编码为值为 0 或 1 的 float32 标量(例如,用于 binary_crossentropy)。None(无标签)。"labels" 为 "inferred" 时有效。这是类名的显式列表(必须与子目录的名称匹配)。用于控制类的顺序(否则使用字母数字顺序)。None,则数据不会被批处理(数据集将生成单个样本)。max_length。True。如果设置为 False,则按字母数字顺序排序数据。"training"、"validation" 或 "both" 之一。仅在设置 validation_split 时使用。当 subset="both" 时,实用程序将返回两个数据集的元组(分别为训练数据集和验证数据集)。False。返回值
一个 tf.data.Dataset 对象。
label_mode 为 None,它将生成形状为 (batch_size,) 的 string 张量,包含一批文本文件的内容。(texts, labels),其中 texts 的形状为 (batch_size,),labels 遵循下面描述的格式。标签格式规则
label_mode 为 int,则标签为形状为 (batch_size,) 的 int32 张量。label_mode 为 binary,则标签为形状为 (batch_size, 1) 的 1 和 0 的 float32 张量。label_mode 为 categorical,则标签为形状为 (batch_size, num_classes) 的 float32 张量,表示类索引的独热编码。