相关文章
DivCo: Diverse Conditional Image Synthesis viaContrastive Generative Adversarial Network
一、前置知识
条件生成对抗网络(cGANs):条件生成对抗网络(cGAN) - 知乎 (zhihu.com)
对比学习:对比学习(Contrastive Learning),必知必会 - 知乎 (zhihu.com)
二、关于本文
目前研究所处瓶颈及其所面对…
建站知识
2024/12/2 21:28:41
【Transformer】22、AdaViT: Adaptive Vision Transformers for Efficient Image Recognition
文章目录 一、背景二、方法三、效果 一、背景
Transformer 在多个领域实现了良好的效果,但其计算量随着 patches 数量的增加、self-attention head 数量增加、transformer block 数量的增加会有很大的增大。
但作者提出了两个个问题: 是否所有的 patch…
建站知识
2024/11/12 15:48:15
ViT-Adapter:Vision Transformer Adapter for Dense Predictions
ViT-Adapter:Vision Transformer Adapter for Dense Predictions 论文地址:https://arxiv.org/abs/2205.0853 SL是监督学习,SSL是自监督学习
之前是使用的针对特定任务进行设计的Vision-Specific Transformer,先对图像形态进行预…
建站知识
2024/11/1 9:23:33
[Transformer] DAT: Vision Transformer with Deformable Attention
论文: https://arxiv.org/abs/2201.00520
代码: https://github.com/LeapLabTHU/DAT
2022年1月 1 简介
与CNN模型相比,基于Transformer的模型具有更大的感受野,擅长于建模长期依赖关系,在大量训练数据和模型参数的情…
建站知识
2024/11/1 9:31:38
【论文笔记】VideoGPT: Video Generation using VQ-VAE and Transformers
论文标题:VideoGPT: Video Generation using VQ-VAE and Transformers
论文代码:https://wilson1yan. github.io/videogpt/index.html.
论文链接:https://arxiv.org/abs/2104.10157
发表时间: 2021年9月
Abstract
作者提出了…
建站知识
2024/11/1 9:29:10
【DCANet2022】:DCANet: Differential Convolution Attention Network for RGB-D Semantic Segmentation
DCANet: Differential Convolution Attention Network for RGB-D Semantic Segmentation
DCANet:RGB-D语义分割的差分卷积注意网络 arXiv:2210.06747v1 [eess.IV] 13 Oct 2022 文章地址:https://arxiv.org/abs/2210.06747 代码地址: 摘要 过去几年&…
建站知识
2024/11/1 9:21:53
[Transformer]A Survey on Vision Transformer
A Survey on Vision Transformer 视觉Transformer综述
Abstract:
Transformer是一种基于自注意力机制的深度神经网络,最初被用于NLP,由于其强大的特征表征能力,也逐步被应用于计算机视觉任务中去。在一些计算机视觉的基准任务中,…
建站知识
2024/10/26 20:21:23