如 "Unsupervised Cross-lingual Representation Learning at Scale" 中所述,用于 XLM-Roberta 的模型、分词器和预处理层。
要查看所有可用 **预设** 的完整列表,请参阅 模型页面。