作者:阿Love静_999 | 来源:互联网 | 2024-11-12 20:32
本文详细介绍了VisionTransformer(ViT)和DETR的工作原理,并提供了相关的代码实现和参考资料。通过观看教学视频和阅读博客,对ViT的全流程进行了详细的笔记整理,包括代码详解和关键概念的解释。
通过观看教学视频和阅读博客,详细梳理了 Vision Transformer (ViT) 的各个方面。
(212条消息) ViT全流程笔记,附代码详解。_AI Studio的博客-CSDN博客_vit代码
参考资料
Vision Transformer (ViT) PyTorch代码全解析(附图解)_Adenialzz的博客-CSDN博客_vit-pytorch
//简单版
(212条消息) ViT: 视觉Transformer backbone网络ViT论文与代码详解_louwill12的博客-CSDN博客
//完整版
神经网络学习小记录67——Pytorch版 Vision Transformer (VIT)模型的复现详解_Bubbliiiing的博客-CSDN博客
11.1 Vision Transformer (vit)网络详解_哔哩哔哩_bilibili //整体
(212条消息) 一张图等于 16x16 个字,计算机视觉也用上 Transformer 了_公众号机器学习与生成对抗网络的博客-CSDN博客
//整体的补充 ,非常细节
ViT论文逐段精读【论文精读】_哔哩哔哩_bilibili //配套视频
ViT论文逐段精读【论文精读】 - 哔哩哔哩 (bilibili.com) //配套笔记
Yolo系列各个模块的讲解
深入浅出Yolo系列之Yolov5核心基础知识完整讲解 - 知乎 (zhihu.com)
//多个交互层多头注意力(MSA)和多层感知器(MLP)
Vision MLP 超详细解读 (原理分析+代码解读) (四) - 知乎 (zhihu.com)
(212条消息) ViT全流程笔记,附代码详解。_AI Studio的博客-CSDN博客_vit代码
//encoder,手写解释的很清楚
(212条消息) BatchNormalization、LayerNormalization、InstanceNorm、GroupNorm、SwitchableNorm总结_夏洛的网的博客-CSDN博客_layernorm和batchnorm
//为什么要选择layer normalization