无
入门指南
开发者指南
代码示例
计算机视觉
自然语言处理
从头开始文本分类
使用主动学习进行评论分类
使用 KerasHub 进行 FNet 分类
大规模多标签文本分类
使用 Transformer 进行文本分类
使用 Switch Transformer 进行文本分类
使用决策树和预训练嵌入进行文本分类
使用预训练词嵌入
IMDB 上的双向 LSTM
使用 KerasHub 和 tf.distribute 进行数据并行训练
使用 KerasHub 进行英译西
使用 Transformer 进行英译西
字符级循环序列到序列模型
多模态蕴含
使用 Transformer 进行命名实体识别
使用 BERT 进行文本提取
用于数字加法的序列到序列学习
使用 KerasHub 进行语义相似度分析
使用 BERT 进行语义相似度分析
使用 Siamese RoBERTa-网络进行句子嵌入
使用 BERT 进行端到端掩码语言建模
使用 BART 进行抽象文本摘要
使用 LoRA 对 GPT-2 进行参数高效微调
迁移学习的多项选择任务
结构化数据
时间序列
生成式深度学习
音频数据
强化学习
图数据
快速 Keras 技巧
Keras 3 API 文档
Keras 2 API 文档
KerasTuner: 超参数调优
KerasHub: 预训练模型
KerasRS
快速入门
指南
API
示例
Keras Tuner
Keras RS
Keras Hub
代码示例
计算机视觉
自然语言处理
从头开始文本分类
使用主动学习进行评论分类
使用 KerasHub 进行 FNet 分类
大规模多标签文本分类
使用 Transformer 进行文本分类
使用 Switch Transformer 进行文本分类
使用决策树和预训练嵌入进行文本分类
使用预训练词嵌入
IMDB 上的双向 LSTM
使用 KerasHub 和 tf.distribute 进行数据并行训练
使用 KerasHub 进行英译西
使用 Transformer 进行英译西
字符级循环序列到序列模型
多模态蕴含
使用 Transformer 进行命名实体识别
使用 BERT 进行文本提取
用于数字加法的序列到序列学习
使用 KerasHub 进行语义相似度分析
使用 BERT 进行语义相似度分析
使用 Siamese RoBERTa-网络进行句子嵌入
使用 BERT 进行端到端掩码语言建模
使用 BART 进行抽象文本摘要
使用 LoRA 对 GPT-2 进行参数高效微调
迁移学习的多项选择任务
结构化数据
时间序列
生成式深度学习
音频数据
强化学习
图数据
快速 Keras 技巧
►
代码示例
/ 自然语言处理
自然语言处理
文本分类
★
V3
从头开始文本分类
V3
使用主动学习进行评论分类
V3
使用 KerasHub 进行 FNet 分类
V2
大规模多标签文本分类
V3
使用 Transformer 进行文本分类
V3
使用 Switch Transformer 进行文本分类
V2
使用决策树和预训练嵌入进行文本分类
V3
使用预训练词嵌入
V3
IMDB 上的双向 LSTM
V3
使用 KerasHub 和 tf.distribute 进行数据并行训练
机器翻译
V3
使用 KerasHub 进行英译西
★
V3
使用 Transformer 进行英译西
V3
字符级循环序列到序列模型
蕴含预测
V2
多模态蕴涵
命名实体识别
V3
使用 Transformer 进行命名实体识别
序列到序列
V2
使用 BERT 进行文本提取
V3
用于数字加法的序列到序列学习
文本相似度搜索
V3
使用 KerasHub 进行语义相似度分析
V3
使用 BERT 进行语义相似度分析
V3
使用 Siamese RoBERTa-网络进行句子嵌入
语言建模
V3
使用 BERT 进行端到端掩码语言建模
V3
使用 BART 进行抽象文本摘要
参数高效微调
V3
使用 LoRA 对 GPT-2 进行参数高效微调
其他
V2
使用迁移学习完成多项选择任务