关于 Keras 入门 开发者指南 Keras 3 API 文档 模型 API 层 API 回调 API Ops API 优化器 指标 损失函数 数据加载 内置小型数据集 Keras 应用 混合精度 多设备分布式 RNG API 实用程序 KerasTuner KerasCV KerasNLP 预训练模型 模型 API 分词器 预处理层 建模层 采样器 指标 KerasHub Keras 2 API 文档 代码示例 KerasTuner:超参数调整 KerasHub:预训练模型 KerasCV:计算机视觉工作流程 KerasNLP:自然语言工作流程
► Keras 3 API 文档 / KerasNLP / 预训练模型 / XLM-RoBERTa

XLM-RoBERTa

如 "Unsupervised Cross-lingual Representation Learning at Scale" 中所述,用于 XLM-Roberta 的模型、分词器和预处理层。

要查看所有可用 **预设** 的完整列表,请参阅 模型页面。

XLMRobertaTokenizer

  • XLMRobertaTokenizer 类
  • from_preset 方法

XLMRobertaBackbone 模型

  • XLMRobertaBackbone 类
  • from_preset 方法
  • token_embedding 属性

XLMRobertaTextClassifier 模型

  • XLMRobertaTextClassifier 类
  • from_preset 方法
  • backbone 属性
  • preprocessor 属性

XLMRobertaTextClassifierPreprocessor 层

  • XLMRobertaTextClassifierPreprocessor 类
  • from_preset 方法
  • tokenizer 属性

XLMRobertaMaskedLM 模型

  • XLMRobertaMaskedLM 类
  • from_preset 方法
  • backbone 属性
  • preprocessor 属性

XLMRobertaMaskedLMPreprocessor 层

  • XLMRobertaMaskedLMPreprocessor 类
  • from_preset 方法
  • tokenizer 属性
XLM-RoBERTa
XLMRobertaTokenizer
XLMRobertaBackbone 模型
XLMRobertaTextClassifier 模型
XLMRobertaTextClassifierPreprocessor 层
XLMRobertaMaskedLM 模型
XLMRobertaMaskedLMPreprocessor 层
条款 | 隐私