The-Annotated-Transformer for own study 源代码地址:https://github.com/harvardnlp/annotated-transformer https://github.com/lucidrains/vit-pytorch 主要参考链接 为什么Transformer适合做多模态任务? 李宏毅2021/2022春机器学习课程 万字逐行解析与实现Transformer,并进行德译英实战 层层剖析,让你彻底搞懂Self-Attention、MultiHead-Attention和Masked-Attention的机制和原理 ViT论文逐段精读【论文精读】 Self-Supervised Learning 超详细解读 (六):MAE:通向 CV 大模型 别再无聊地吹捧了,一起来动手实现 MAE(Masked Autoencoders Are Scalable Vision Learners) 玩玩吧! Masked Autoencoders(MAE)