关于 Keras
入门指南
开发者指南
代码示例
计算机视觉
自然语言处理
从零开始的文本分类
使用主动学习的评论分类
使用 FNet 的文本分类
大规模多标签文本分类
使用 Transformer 的文本分类
使用 Switch Transformer 的文本分类
使用决策树和预训练嵌入的推文分类
使用预训练词嵌入
IMDB 上的双向 LSTM
使用 KerasHub 和 tf.distribute 进行数据并行训练
使用 KerasHub 进行英西翻译
使用序列到序列 Transformer 进行英西翻译
字符级循环序列到序列模型
多模态蕴含
使用 Transformer 的命名实体识别
使用 BERT 的文本提取
执行数字加法的序列到序列学习
使用 KerasHub 进行语义相似度
使用 BERT 进行语义相似度
使用 Siamese RoBERTa 网络的句子嵌入
BERT 的端到端掩码语言建模
使用 BART 的抽象文本摘要
使用 Hugging Face Transformers 预训练 BERT
使用 LoRA 对 GPT-2 进行参数高效微调
使用迁移学习的多项选择任务
使用 Hugging Face Transformers 的问答
使用 Hugging Face Transformers 的抽象摘要
结构化数据
时间序列
生成式深度学习
音频数据
强化学习
图数据
Keras 快速指南
Keras 3 API 文档
Keras 2 API 文档
KerasTuner:超参数调优
KerasHub:预训练模型
search
►
代码示例
/ 自然语言处理
自然语言处理
文本分类
★
V3
从零开始的文本分类
V3
使用主动学习的评论分类
V3
使用 FNet 的文本分类
V2
大规模多标签文本分类
V3
使用 Transformer 的文本分类
V3
使用 Switch Transformer 的文本分类
V2
使用决策树和预训练嵌入的推文分类
V3
使用预训练词嵌入
V3
IMDB 上的双向 LSTM
V3
使用 KerasHub 和 tf.distribute 进行数据并行训练
机器翻译
V3
使用 KerasHub 进行英西翻译
★
V3
使用序列到序列 Transformer 进行英西翻译
V3
字符级循环序列到序列模型
蕴含预测
V2
多模态蕴含
命名实体识别
V3
使用 Transformer 的命名实体识别
序列到序列
V2
使用 BERT 的文本提取
V3
执行数字加法的序列到序列学习
文本相似性搜索
V3
使用 KerasHub 进行语义相似度
V3
使用 BERT 进行语义相似度
V3
使用 Siamese RoBERTa 网络的句子嵌入
语言建模
V3
BERT 的端到端掩码语言建模
V3
使用 BART 的抽象文本摘要
V2
使用 Hugging Face Transformers 预训练 BERT
参数高效微调
V3
使用 LoRA 对 GPT-2 进行参数高效微调
其他
V2
使用迁移学习的多项选择任务
V2
使用 Hugging Face Transformers 的问答
V2
使用 Hugging Face Transformers 的抽象摘要