PARSeqTokenizer 类keras_hub.tokenizers.PARSeqTokenizer(
vocabulary=[
"0",
"1",
"2",
"3",
"4",
"5",
"6",
"7",
"8",
"9",
"a",
"b",
"c",
"d",
"e",
"f",
"g",
"h",
"i",
"j",
"k",
"l",
"m",
"n",
"o",
"p",
"q",
"r",
"s",
"t",
"u",
"v",
"w",
"x",
"y",
"z",
"A",
"B",
"C",
"D",
"E",
"F",
"G",
"H",
"I",
"J",
"K",
"L",
"M",
"N",
"O",
"P",
"Q",
"R",
"S",
"T",
"U",
"V",
"W",
"X",
"Y",
"Z",
"!",
'"',
"#",
"$",
"%",
"&",
"'",
"(",
")",
"*",
"+",
",",
"-",
".",
"/",
":",
";",
"<",
"=",
">",
"?",
"@",
"[",
"\\",
"]",
"^",
"_",
"`",
"{",
"|",
"}",
"~",
],
remove_whitespace=True,
normalize_unicode=True,
max_label_length=25,
dtype="int32",
**kwargs
)
PARSeq 模型的 Tokenizer,专为 OCR 任务设计。
此 Tokenizer 可将字符串转换为整数 ID 或字符串 Token 的序列,反之亦然。它支持各种预处理步骤,例如去除空格、Unicode 规范化以及限制最大标签长度。它还提供了从文件保存和加载词汇表的功能。
参数
PARSEQ_VOCAB。True。True。25。"int32"。keras.layers.Layer 构造函数的其他关键字参数。from_preset 方法PARSeqTokenizer.from_preset(preset, config_file="tokenizer.json", **kwargs)
从模型预设实例化一个 keras_hub.models.Tokenizer。
预设是一个包含配置、权重和其他文件资产的目录,用于保存和加载预训练模型。preset 可以作为以下之一传递:
'bert_base_en''kaggle://user/bert/keras/bert_base_en''hf://user/bert_base_en''./bert_base_en'对于任何 Tokenizer 子类,您都可以运行 cls.presets.keys() 来列出该类上所有可用的内置预设。
此构造函数可以通过两种方式调用。一种是像 keras_hub.models.Tokenizer.from_preset() 那样从基类调用,另一种是像 keras_hub.models.GemmaTokenizer.from_preset() 那样从模型类调用。如果从基类调用,返回对象的子类将根据预设目录中的配置进行推断。
参数
示例
# Load a preset tokenizer.
tokenizer = keras_hub.tokenizer.Tokenizer.from_preset("bert_base_en")
# Tokenize some input.
tokenizer("The quick brown fox tripped.")
# Detokenize some input.
tokenizer.detokenize([5, 6, 7, 8, 9])