Qwen3Tokenizer

[源代码]

Qwen3Tokenizer

keras_hub.models.Qwen3Tokenizer(vocabulary=None, merges=None, **kwargs)

Qwen3模型的 tokenizer。

此 tokenizer 为 Qwen3 模型实现了字节对编码 (BPE),并处理 BOS (句首) 和 EOS (句尾) 等特殊标记。

参数

  • vocabulary:将 tokens 映射到 token ID 的字典,或词汇表文件的路径。
  • merges:BPE 合并列表,或合并文件的路径。
  • bos_token:序列开始标记。默认为 None。
  • eos_token:序列结束标记。默认为 "<|endoftext|>"。
  • misc_special_tokens:额外的特殊标记集合。默认为空集。

[源代码]

from_preset 方法

Qwen3Tokenizer.from_preset(preset, config_file="tokenizer.json", **kwargs)

从模型预设实例化一个 keras_hub.models.Tokenizer

预设是一个包含配置、权重和其他文件资产的目录,用于保存和加载预训练模型。preset 可以作为以下之一传递:

  1. 一个内置的预设标识符,如 'bert_base_en'
  2. 一个 Kaggle Models 句柄,如 'kaggle://user/bert/keras/bert_base_en'
  3. 一个 Hugging Face 句柄,如 'hf://user/bert_base_en'
  4. 一个本地预设目录的路径,如 './bert_base_en'

对于任何 Tokenizer 子类,您都可以运行 cls.presets.keys() 来列出该类上所有可用的内置预设。

此构造函数可以通过两种方式调用。一种是像 keras_hub.models.Tokenizer.from_preset() 那样从基类调用,另一种是像 keras_hub.models.GemmaTokenizer.from_preset() 那样从模型类调用。如果从基类调用,返回对象的子类将根据预设目录中的配置进行推断。

参数

  • preset:字符串。一个内置预设标识符、一个 Kaggle Models 句柄、一个 Hugging Face 句柄或一个本地目录的路径。
  • load_weights:布尔值。如果为 `True`,权重将被加载到模型架构中。如果为 `False`,权重将被随机初始化。

示例

# Load a preset tokenizer.
tokenizer = keras_hub.tokenizer.Tokenizer.from_preset("bert_base_en")

# Tokenize some input.
tokenizer("The quick brown fox tripped.")

# Detokenize some input.
tokenizer.detokenize([5, 6, 7, 8, 9])
预设 参数 描述
qwen3_0.6b_en 596.05M 28 层 Qwen3 模型,具有 5.96 亿参数,针对资源受限设备的效率和快速推理进行了优化。
qwen3_1.7b_en 1.72B 28 层 Qwen3 模型,具有 17.2 亿参数,在性能和资源使用之间取得了良好的平衡。
qwen3_4b_en 4.02B 36 层 Qwen3 模型,具有 40.2 亿参数,提供了比小型变体更强的推理能力和更好的性能。
qwen3_8b_en 8.19B 36 层 Qwen3 模型,具有 81.9 亿参数,具备增强的推理、编码和指令遵循能力。
qwen3_14b_en 14.77B 40 层 Qwen3 模型,具有 147.7 亿参数,具备先进的推理、编码和多语言能力。
qwen3_32b_en 32.76B 64 层 Qwen3 模型,具有 327.6 亿参数,在推理、编码和通用语言任务方面均达到最先进的性能。