无
入门指南
开发者指南
代码示例
计算机视觉
从头开始进行图像分类
简单的 MNIST 卷积网络
使用 EfficientNet 进行微调实现图像分类
使用 Vision Transformer 进行图像分类
使用基于注意力的深度多实例学习进行分类
使用现代 MLP 模型进行图像分类
基于 Transformer 的移动端友好图像分类模型
在 TPU 上进行肺炎分类
紧凑型卷积 Transformer
使用 ConvMixer 进行图像分类
使用 EANet (外部注意力 Transformer) 进行图像分类
内卷神经网络
使用 Perceiver 进行图像分类
使用 Reptile 进行少样本学习
使用 SimCLR 对比预训练进行半监督图像分类
使用 Swin Transformer 进行图像分类
在小型数据集上训练 Vision Transformer
无注意力的 Vision Transformer
使用全局上下文 Vision Transformer 进行图像分类
当循环遇上 Transformer
使用 U-Net 类架构进行图像分割
使用 DeepLabV3+ 进行多类别语义分割
使用 BASNet 进行高精度边界分割
使用可组合全卷积网络进行图像分割
使用 RetinaNet 进行对象检测
使用迁移学习进行关键点检测
使用 Vision Transformer 进行对象检测
从 CT 扫描图像进行 3D 图像分类
单目深度估计
使用 NeRF 进行 3D 体渲染
使用 PointNet 进行点云分割
点云分类
用于读取验证码的 OCR 模型
手写识别
用于图像去噪的卷积自编码器
使用 MIRNet 进行低光照图像增强
使用高效子像素 CNN 进行图像超分辨率
用于单图像超分辨率的增强深度残差网络
用于低光照图像增强的 Zero-DCE
用于图像分类的 CutMix 数据增强
用于图像分类的 MixUp 增强
用于图像分类的 RandAugment 以提高鲁棒性
图像描述生成
使用双编码器进行自然语言图像搜索
可视化卷积网络学习到的内容
使用 Integrated Gradients 进行模型可解释性分析
研究 Vision Transformer 表示
Grad-CAM 类别激活可视化
近似重复图像搜索
语义图像聚类
使用对比损失的 Siamese 网络进行图像相似度估计
使用 Triplet 损失的 Siamese 网络进行图像相似度估计
用于图像相似度搜索的度量学习
使用 TensorFlow Similarity 进行图像相似度搜索的度量学习
使用 NNCLR 进行自监督对比学习
使用 CNN-RNN 架构进行视频分类
使用卷积 LSTM 进行下一帧视频预测
使用 Transformer 进行视频分类
视频 Vision Transformer
使用 BigTransfer (BiT) 进行图像分类
用于提升训练性能的梯度中心化
在 Vision Transformer 中学习分词
知识蒸馏
FixRes:修复训练-测试分辨率差异
带 LayerScale 的类别注意力图像 Transformer
使用聚合注意力增强卷积网络
学习调整大小
使用 AdaMatch 进行半监督和域适应
用于对比 SSL 的 Barlow Twins
有监督的一致性训练
蒸馏 Vision Transformer
焦点调制:自注意力的替代方案
使用前向-前向算法进行图像分类
使用自编码器进行掩码图像建模
使用 🤗Transformers 的 Segment Anything 模型
使用 SegFormer 和 Hugging Face Transformers 进行语义分割
使用 SimSiam 进行自监督对比学习
有监督对比学习
使用 YOLOV8 和 KerasCV 进行高效对象检测
自然语言处理
结构化数据
时间序列
生成式深度学习
音频数据
强化学习
图数据
Keras 快速入门
Keras 3 API 文档
Keras 2 API 文档
KerasTuner:超参数调优
KerasHub:预训练模型
KerasRS
入门指南
指南
API
示例
Keras Tuner
Keras RS
Keras Hub
代码示例
计算机视觉
从头开始进行图像分类
简单的 MNIST 卷积网络
使用 EfficientNet 进行微调实现图像分类
使用 Vision Transformer 进行图像分类
使用基于注意力的深度多实例学习进行分类
使用现代 MLP 模型进行图像分类
基于 Transformer 的移动端友好图像分类模型
在 TPU 上进行肺炎分类
紧凑型卷积 Transformer
使用 ConvMixer 进行图像分类
使用 EANet (外部注意力 Transformer) 进行图像分类
内卷神经网络
使用 Perceiver 进行图像分类
使用 Reptile 进行少样本学习
使用 SimCLR 对比预训练进行半监督图像分类
使用 Swin Transformer 进行图像分类
在小型数据集上训练 Vision Transformer
无注意力的 Vision Transformer
使用全局上下文 Vision Transformer 进行图像分类
当循环遇上 Transformer
使用 U-Net 类架构进行图像分割
使用 DeepLabV3+ 进行多类别语义分割
使用 BASNet 进行高精度边界分割
使用可组合全卷积网络进行图像分割
使用 RetinaNet 进行对象检测
使用迁移学习进行关键点检测
使用 Vision Transformer 进行对象检测
从 CT 扫描图像进行 3D 图像分类
单目深度估计
使用 NeRF 进行 3D 体渲染
使用 PointNet 进行点云分割
点云分类
用于读取验证码的 OCR 模型
手写识别
用于图像去噪的卷积自编码器
使用 MIRNet 进行低光照图像增强
使用高效子像素 CNN 进行图像超分辨率
用于单图像超分辨率的增强深度残差网络
用于低光照图像增强的 Zero-DCE
用于图像分类的 CutMix 数据增强
用于图像分类的 MixUp 增强
用于图像分类的 RandAugment 以提高鲁棒性
图像描述生成
使用双编码器进行自然语言图像搜索
可视化卷积网络学习到的内容
使用 Integrated Gradients 进行模型可解释性分析
研究 Vision Transformer 表示
Grad-CAM 类别激活可视化
近似重复图像搜索
语义图像聚类
使用对比损失的 Siamese 网络进行图像相似度估计
使用 Triplet 损失的 Siamese 网络进行图像相似度估计
用于图像相似度搜索的度量学习
使用 TensorFlow Similarity 进行图像相似度搜索的度量学习
使用 NNCLR 进行自监督对比学习
使用 CNN-RNN 架构进行视频分类
使用卷积 LSTM 进行下一帧视频预测
使用 Transformer 进行视频分类
视频 Vision Transformer
使用 BigTransfer (BiT) 进行图像分类
用于提升训练性能的梯度中心化
在 Vision Transformer 中学习分词
知识蒸馏
FixRes:修复训练-测试分辨率差异
带 LayerScale 的类别注意力图像 Transformer
使用聚合注意力增强卷积网络
学习调整大小
使用 AdaMatch 进行半监督和域适应
用于对比 SSL 的 Barlow Twins
有监督的一致性训练
蒸馏 Vision Transformer
焦点调制:自注意力的替代方案
使用前向-前向算法进行图像分类
使用自编码器进行掩码图像建模
使用 🤗Transformers 的 Segment Anything 模型
使用 SegFormer 和 Hugging Face Transformers 进行语义分割
使用 SimSiam 进行自监督对比学习
有监督对比学习
使用 YOLOV8 和 KerasCV 进行高效对象检测
自然语言处理
结构化数据
时间序列
生成式深度学习
音频数据
强化学习
图数据
Keras 快速入门
►
代码示例
/ 计算机视觉
计算机视觉
图像分类
★
V3
从头开始进行图像分类
★
V3
简单的 MNIST 卷积网络
★
V3
使用 EfficientNet 进行微调实现图像分类
V3
使用 Vision Transformer 进行图像分类
V3
使用基于注意力的深度多实例学习进行分类
V3
使用现代 MLP 模型进行图像分类
V3
基于 Transformer 的移动端友好图像分类模型
V3
在 TPU 上进行肺炎分类
V3
紧凑型卷积 Transformer
V3
使用 ConvMixer 进行图像分类
V3
使用 EANet (外部注意力 Transformer) 进行图像分类
V3
内卷神经网络
V3
使用 Perceiver 进行图像分类
V3
使用 Reptile 进行少样本学习
V3
使用 SimCLR 对比预训练进行半监督图像分类
V3
使用 Swin Transformer 进行图像分类
V3
在小型数据集上训练 Vision Transformer
V3
无注意力的 Vision Transformer
V3
使用全局上下文 Vision Transformer 进行图像分类
V3
当循环遇上 Transformer
V3
使用 BigTransfer (BiT) 进行图像分类
图像分割
★
V3
使用 U-Net 类架构进行图像分割
V3
使用 DeepLabV3+ 进行多类别语义分割
V2
使用 BASNet 进行高精度边界分割
V3
使用可组合全卷积网络进行图像分割
对象检测
V2
使用 RetinaNet 进行对象检测
V3
使用迁移学习进行关键点检测
V3
使用 Vision Transformer 进行对象检测
3D
V3
从 CT 扫描图像进行 3D 图像分类
V3
单目深度估计
★
V3
使用 NeRF 进行 3D 体渲染
V3
使用 PointNet 进行点云分割
V3
点云分类
OCR
V3
用于读取验证码的 OCR 模型
V3
手写识别
图像增强
V3
用于图像去噪的卷积自编码器
V3
使用 MIRNet 进行低光照图像增强
V3
使用高效子像素 CNN 进行图像超分辨率
V3
用于单图像超分辨率的增强深度残差网络
V3
用于低光照图像增强的 Zero-DCE
数据增强
V3
用于图像分类的 CutMix 数据增强
V3
用于图像分类的 MixUp 增强
V3
用于图像分类的 RandAugment 以提高鲁棒性
图像与文本
★
V3
图像描述生成
V2
使用双编码器进行自然语言图像搜索
视觉模型可解释性
V3
可视化卷积网络学习到的内容
V3
使用 Integrated Gradients 进行模型可解释性分析
V3
研究 Vision Transformer 表示
V3
Grad-CAM 类别激活可视化
图像相似度搜索
V2
近似重复图像搜索
V3
语义图像聚类
V3
使用对比损失的 Siamese 网络进行图像相似度估计
V3
使用 Triplet 损失的 Siamese 网络进行图像相似度估计
V3
用于图像相似度搜索的度量学习
V2
使用 TensorFlow Similarity 进行图像相似度搜索的度量学习
V3
使用 NNCLR 进行自监督对比学习
视频
V3
使用 CNN-RNN 架构进行视频分类
V3
使用卷积 LSTM 进行下一帧视频预测
V3
使用 Transformer 进行视频分类
V3
视频 Vision Transformer
性能优化技巧
V3
用于提升训练性能的梯度中心化
V3
在 Vision Transformer 中学习分词
V3
知识蒸馏
V3
FixRes:修复训练-测试分辨率差异
V3
带 LayerScale 的类别注意力图像 Transformer
V3
使用聚合注意力增强卷积网络
V3
学习调整大小
其他
V2
使用 AdaMatch 进行半监督和域适应
V2
用于对比 SSL 的 Barlow Twins
V2
有监督的一致性训练
V2
蒸馏 Vision Transformer
V2
焦点调制:自注意力的替代方案
V2
使用前向-前向算法进行图像分类
V2
使用自编码器进行掩码图像建模
V2
使用 🤗Transformers 的 Segment Anything 模型
V2
使用 SegFormer 和 Hugging Face Transformers 进行语义分割
V2
使用 SimSiam 进行自监督对比学习
V2
有监督对比学习
V2
使用 YOLOV8 和 KerasCV 进行高效对象检测