关于 Keras
入门
开发者指南
代码示例
计算机视觉
从零开始的图像分类
简单的 MNIST 卷积神经网络
使用 EfficientNet 微调进行图像分类
使用视觉Transformer进行图像分类
基于注意力机制的深度多实例学习分类
使用现代 MLP 模型进行图像分类
一种适用于移动设备的基于Transformer的图像分类模型
TPU 上的肺炎分类
紧凑卷积Transformer
使用 ConvMixer 进行图像分类
使用 EANet(外部注意力Transformer)进行图像分类
卷积神经网络
使用 Perceiver 进行图像分类
使用 Reptile 进行少样本学习
使用 SimCLR 进行对比预训练的半监督图像分类
使用 Swin Transformer 进行图像分类
在小型数据集上训练视觉Transformer
无需注意力机制的视觉Transformer
使用全局上下文视觉Transformer进行图像分类
当循环神经网络遇到Transformer
使用类似 U-Net 的架构进行图像分割
使用 DeepLabV3+ 进行多类语义分割
使用 BASNet 进行高精度边界分割
使用可组合的全卷积网络进行图像分割
使用 RetinaNet 进行目标检测
使用迁移学习进行关键点检测
使用视觉Transformer进行目标检测
来自 CT 扫描的 3D 图像分类
单目深度估计
使用 NeRF 进行 3D 体积渲染
使用 PointNet 进行点云分割
点云分类
用于读取验证码的光学字符识别模型
手写识别
用于图像去噪的卷积自编码器
使用 MIRNet 进行弱光图像增强
使用高效亚像素 CNN 进行图像超分辨率
用于单图像超分辨率的增强深度残差网络
用于弱光图像增强的 Zero-DCE
用于图像分类的 CutMix 数据增强
用于图像分类的 MixUp 增强
用于图像分类以提高鲁棒性的 RandAugment
图像字幕生成
使用双编码器进行自然语言图像搜索
可视化卷积神经网络的学习内容
使用集成梯度进行模型可解释性
调查视觉Transformer表示
Grad-CAM 类别激活可视化
近似重复图像搜索
语义图像聚类
使用带有对比损失的孪生网络进行图像相似度估计
使用带有三元组损失的孪生网络进行图像相似度估计
用于图像相似度搜索的度量学习
使用 TensorFlow Similarity 进行图像相似度搜索的度量学习
使用 NNCLR 进行自监督对比学习
使用 CNN-RNN 架构进行视频分类
使用卷积 LSTM 进行下一帧视频预测
使用Transformer进行视频分类
视频视觉Transformer
使用 BigTransfer (BiT) 进行图像分类
梯度集中以获得更好的训练性能
学习在视觉Transformer中进行标记化
知识蒸馏
FixRes:修复训练-测试分辨率差异
带有 LayerScale 的类别注意力图像Transformer
使用聚合注意力增强卷积神经网络
学习调整大小
使用 AdaMatch 进行半监督和域适应
Barlow Twins 用于对比 SSL
一致性训练与监督
蒸馏视觉Transformer
焦点调制:自注意力的替代方案
使用前馈算法进行图像分类
使用自编码器进行掩码图像建模
使用 🤗Transformers 的 Segment Anything 模型
使用 SegFormer 和 Hugging Face Transformers 进行语义分割
使用 SimSiam 进行自监督对比学习
监督对比学习
使用 YOLOV8 和 KerasCV 进行高效的目标检测
自然语言处理
结构化数据
时间序列
生成式深度学习
音频数据
强化学习
图数据
Keras 快速指南
Keras 3 API 文档
Keras 2 API 文档
KerasTuner:超参数调整
KerasHub:预训练模型
search
►
代码示例
/ 计算机视觉
计算机视觉
图像分类
★
V3
从零开始的图像分类
★
V3
简单的 MNIST 卷积神经网络
★
V3
使用 EfficientNet 微调进行图像分类
V3
使用视觉Transformer进行图像分类
V3
基于注意力机制的深度多实例学习分类
V3
使用现代 MLP 模型进行图像分类
V3
一种适用于移动设备的基于Transformer的图像分类模型
V3
TPU 上的肺炎分类
V3
紧凑卷积Transformer
V3
使用 ConvMixer 进行图像分类
V3
使用 EANet(外部注意力Transformer)进行图像分类
V3
卷积神经网络
V3
使用 Perceiver 进行图像分类
V3
使用 Reptile 进行少样本学习
V3
使用 SimCLR 进行对比预训练的半监督图像分类
V3
使用 Swin Transformer 进行图像分类
V3
在小型数据集上训练视觉Transformer
V2
无需注意力机制的视觉Transformer
V3
使用全局上下文视觉Transformer进行图像分类
V3
当循环神经网络遇到Transformer
V3
使用 BigTransfer (BiT) 进行图像分类
图像分割
★
V3
使用类似 U-Net 的架构进行图像分割
V3
使用 DeepLabV3+ 进行多类语义分割
V2
使用 BASNet 进行高精度边界分割
V3
使用可组合的全卷积网络进行图像分割
目标检测
V2
使用RetinaNet进行目标检测
V3
使用迁移学习的关键点检测
V3
使用视觉Transformer进行目标检测
3D
V3
来自CT扫描的3D图像分类
V3
单目深度估计
★
V3
使用NeRF进行3D体积渲染
V3
使用PointNet进行点云分割
V3
点云分类
OCR
V3
用于读取验证码的OCR模型
V3
手写识别
图像增强
V3
用于图像去噪的卷积自动编码器
V3
使用MIRNet进行弱光图像增强
V3
使用高效亚像素CNN进行图像超分辨率
V3
用于单图像超分辨率的增强型深度残差网络
V3
用于弱光图像增强的Zero-DCE
数据增强
V3
用于图像分类的CutMix数据增强
V3
用于图像分类的MixUp增强
V3
用于提高鲁棒性的图像分类RandAugment
图像与文本
★
V3
图像字幕
V2
使用双编码器的自然语言图像搜索
视觉模型的可解释性
V3
可视化卷积神经网络的学习内容
V3
使用集成梯度进行模型可解释性
V3
研究视觉Transformer的表示
V3
Grad-CAM类激活可视化
图像相似性搜索
V2
近似重复图像搜索
V3
语义图像聚类
V3
使用具有对比损失的孪生网络进行图像相似性估计
V3
使用具有三元组损失的孪生网络进行图像相似性估计
V3
用于图像相似性搜索的度量学习
V2
使用TensorFlow Similarity进行图像相似性搜索的度量学习
V3
使用NNCLR进行自监督对比学习
视频
V3
使用CNN-RNN架构进行视频分类
V3
使用卷积LSTM进行下一帧视频预测
V3
使用Transformer进行视频分类
V3
视频视觉Transformer
性能技巧
V3
梯度集中以获得更好的训练性能
V3
学习在视觉Transformer中进行标记化
V3
知识蒸馏
V3
FixRes:修复训练-测试分辨率差异
V3
具有LayerScale的类注意力图像Transformer
V3
使用聚合注意力增强卷积神经网络
V3
学习调整大小
其他
V2
使用AdaMatch进行半监督和域适应
V2
Barlow Twins用于对比SSL
V2
具有监督的一致性训练
V2
蒸馏视觉Transformer
V2
Focal Modulation:自注意力的替代方案
V2
使用前馈算法进行图像分类
V2
使用自动编码器的掩码图像建模
V2
使用 🤗Transformers 的 Segment Anything 模型
V2
使用SegFormer和Hugging Face Transformers进行语义分割
V2
使用SimSiam进行自监督对比学习
V2
监督对比学习
V2
使用YOLOV8和KerasCV进行高效的目标检测