无
入门指南 开发者指南 代码示例 计算机视觉 自然语言处理 从头开始文本分类 使用主动学习进行评论分类 使用 KerasHub 进行 FNet 分类 大规模多标签文本分类 使用 Transformer 进行文本分类 使用 Switch Transformer 进行文本分类 使用决策树和预训练嵌入进行文本分类 使用预训练词嵌入 IMDB 上的双向 LSTM 使用 KerasHub 和 tf.distribute 进行数据并行训练 使用 KerasHub 进行英译西 使用 Transformer 进行英译西 字符级循环序列到序列模型 多模态蕴含 使用 Transformer 进行命名实体识别 使用 BERT 进行文本提取 用于数字加法的序列到序列学习 使用 KerasHub 进行语义相似度分析 使用 BERT 进行语义相似度分析 使用 Siamese RoBERTa-网络进行句子嵌入 使用 BERT 进行端到端掩码语言建模 使用 BART 进行抽象文本摘要 使用 LoRA 对 GPT-2 进行参数高效微调 迁移学习的多项选择任务 结构化数据 时间序列 生成式深度学习 音频数据 强化学习 图数据 快速 Keras 技巧 Keras 3 API 文档 Keras 2 API 文档 KerasTuner: 超参数调优 KerasHub: 预训练模型 KerasRS
keras.io logo
  • 快速入门
  • 指南
  • API
  • 示例
  • Keras Tuner
  • Keras RS
  • Keras Hub
代码示例
计算机视觉 自然语言处理 从头开始文本分类 使用主动学习进行评论分类 使用 KerasHub 进行 FNet 分类 大规模多标签文本分类 使用 Transformer 进行文本分类 使用 Switch Transformer 进行文本分类 使用决策树和预训练嵌入进行文本分类 使用预训练词嵌入 IMDB 上的双向 LSTM 使用 KerasHub 和 tf.distribute 进行数据并行训练 使用 KerasHub 进行英译西 使用 Transformer 进行英译西 字符级循环序列到序列模型 多模态蕴含 使用 Transformer 进行命名实体识别 使用 BERT 进行文本提取 用于数字加法的序列到序列学习 使用 KerasHub 进行语义相似度分析 使用 BERT 进行语义相似度分析 使用 Siamese RoBERTa-网络进行句子嵌入 使用 BERT 进行端到端掩码语言建模 使用 BART 进行抽象文本摘要 使用 LoRA 对 GPT-2 进行参数高效微调 迁移学习的多项选择任务 结构化数据 时间序列 生成式深度学习 音频数据 强化学习 图数据 快速 Keras 技巧
► 代码示例 / 自然语言处理

自然语言处理

文本分类

★
V3
从头开始文本分类
V3
使用主动学习进行评论分类
V3
使用 KerasHub 进行 FNet 分类
V2
大规模多标签文本分类
V3
使用 Transformer 进行文本分类
V3
使用 Switch Transformer 进行文本分类
V2
使用决策树和预训练嵌入进行文本分类
V3
使用预训练词嵌入
V3
IMDB 上的双向 LSTM
V3
使用 KerasHub 和 tf.distribute 进行数据并行训练

机器翻译

V3
使用 KerasHub 进行英译西
★
V3
使用 Transformer 进行英译西
V3
字符级循环序列到序列模型

蕴含预测

V2
多模态蕴涵

命名实体识别

V3
使用 Transformer 进行命名实体识别

序列到序列

V2
使用 BERT 进行文本提取
V3
用于数字加法的序列到序列学习

文本相似度搜索

V3
使用 KerasHub 进行语义相似度分析
V3
使用 BERT 进行语义相似度分析
V3
使用 Siamese RoBERTa-网络进行句子嵌入

语言建模

V3
使用 BERT 进行端到端掩码语言建模
V3
使用 BART 进行抽象文本摘要

参数高效微调

V3
使用 LoRA 对 GPT-2 进行参数高效微调

其他

V2
使用迁移学习完成多项选择任务

条款
|
隐私