UC Berkeley非监督学习--自回归模型

    想系统学习一下生成网络,开个新坑,翻译整理一下UC Berkeley非监督学习的课程。这篇翻译第二讲Autoregressive Models,自回归模型。     这个课程总共十二讲,

UC Berkeley非监督学习--介绍

    想系统学习一下生成网络,开个新坑,翻译整理一下UC Berkeley非监督学习的课程。     这个课程总共十二讲,官方链接: https://sites.google.com/vie

以图片为目标的视觉强化学习 -- 代码解析上篇(rlkit安装及部分代码及函数的解析和使用)

    之前有讲过一篇论文,今天来讲讲它的代码: 论文解析的链接是:以图片为目标的视觉强化学习     这篇研究以及这篇研究的后续研究,源代码都有公开,我们的目标是把这个库都解析一遍,感兴

Facebook DeiT(Data-efficient Image Transformers) 解析

    今天看Facebook AI的DeiT。比起Moco v3训练出来的模型,DeiT胜在模型小,训练和推理都更加迅速。且精准度还有了很大提高。     迅速到什么程度呢?用一个8-GPU服

Facebook自监督学习Visual Transformers(ViT)的训练经验(Moco v3) -- Moco中的ViT

    系列首篇:自监督学习Visual Transformers(ViT)的训练经验(Moco v3) – 论文解析     系列上篇:Facebook自监督学习Visual Transforme

ViT (Vision Transformer)原理及代码解析

    今天我们来详细了解一下Vision Transformer。基于timm的代码。 1. Patch Embedding Transformer原本是用来做NLP的工作的,所以ViT的首