关于 Keras
入门
开发者指南
Keras 3 API 文档
模型 API
层 API
回调 API
运算 API
优化器
指标
损失函数
数据加载
内置小型数据集
Keras 应用
混合精度
多设备分布式
RNG API
工具
KerasTuner
KerasCV
KerasNLP
KerasHub
预训练模型
模型 API
分词器
预处理层
建模层
采样器
指标
Keras 2 API 文档
代码示例
KerasTuner:超参数调优
KerasHub:预训练模型
KerasCV:计算机视觉工作流
KerasNLP:自然语言工作流
search
►
Keras 3 API 文档
/
KerasHub
/
预训练模型
/ DistilBERT
DistilBERT
DistilBERT 的模型、分词器和预处理层,如
"DistilBERT,BERT 的蒸馏版本:更小、更快、更便宜、更轻"
中所述。
有关可用 **预设** 的完整列表,请参阅
模型页面
。
DistilBertTokenizer
DistilBertTokenizer 类
from_preset 方法
DistilBertBackbone 模型
DistilBertBackbone 类
from_preset 方法
token_embedding 属性
DistilBertTextClassifier 模型
DistilBertTextClassifier 类
from_preset 方法
backbone 属性
preprocessor 属性
DistilBertTextClassifierPreprocessor 层
DistilBertTextClassifierPreprocessor 类
from_preset 方法
tokenizer 属性
DistilBertMaskedLM 模型
DistilBertMaskedLM 类
from_preset 方法
backbone 属性
preprocessor 属性
DistilBertMaskedLMPreprocessor 层
DistilBertMaskedLMPreprocessor 类
from_preset 方法
tokenizer 属性
DistilBERT
DistilBertTokenizer
DistilBertBackbone 模型
DistilBertTextClassifier 模型
DistilBertTextClassifierPreprocessor 层
DistilBertMaskedLM 模型
DistilBertMaskedLMPreprocessor 层