MambaOut-Do We Really Need Mamba for Vision? mamba是继transformer之后大火的结构之一。也涌现了各种mamba,各种领域的mamba。本博客之前也介绍了这一算法。 出自NUS的Weihao Yu, Xinchao Wang等人提出了纯卷积的mamaout意图打败mamba。 MambaOut 模型在 ImageNet 图像分类上超越了所有视觉 Mamba 模型,表明 Mamba 对于该任务确实是不必要的。至于检测和分割,Mamb 2024-05-16
Graph-MLP--Node Classification without Message Passing in Graph 《Graph-MLP: Node Classification without Message Passing in Graph》【arxiv 2021】 最近的图神经网络(GNN)都依赖于邻接矩阵来指导特征聚合过程中邻居之间的消息传递,研究工作主要集中在强大的消息传递模块上。然而本文表明没有任何消息传递模块也是可行的。相反地,本文通过设计了一个邻近对比(NContrast)损失,通过隐式利用邻接 2024-05-13 #深度学习 #人工智能 #图神经网络
RNN与注意力 2014年,Volodymyr的《Recurrent Models of Visual Attention》一文中首先将注意力其应用在视觉领域,后来伴随着2017年Ashish Vaswani的《Attention is all you need》中Transformer结构的提出,注意力机制大成。 在注意力机制中,除去耳熟能详的SENet和CBAM,也有一些主动去学习注意区域的网络算法。 比如以 2024-05-12 #深度学习 #人工智能 #注意力
FINDING ADVERSARIALLY ROBUST GRAPH LOTTERY TICKETS 《FINDING ADVERSARIALLY ROBUST GRAPH LOTTERY TICKETS 》NeurIPS 2023&ICLR 2024 2024-05-11 #深度学习 #人工智能 #图神经网络
光电与概念漂移 这部分的论文比较少,且难找。 主要介绍以下三篇论文: 论文一: 《Online prediction of photovoltaic power considering concept drift》 2024-04-10 #人工智能 #光电
残差结构的讨论 本文主要围绕《ResiDual: Transformer with Dual Residual Connections》和《Identity Mappings in Deep Residual Networks》展开。 在深度学习中,乃至当今很火的transformer,残差是一个很重要的部分。 残差结构的讨论也是老生常谈的话题了,比如transformer中应该选择Pre Norm与Post N 2024-03-08 #深度学习 #人工智能
RNNS ARE NOT TRANSFORMERS (YET) 论文:RNNS ARE NOT TRANSFORMERS (YET) -THE KEY BOTTLENECK ON IN-CONTEXT RETRIEVAL 本文研究了递归神经网络(rnn)和transformer在解决算法问题方面的表示能力差距。理论分析表明,CoT改善了rnn,但不足以缩小与transformer的差距。 我们证明,采用技术来增强 RNN 的上下文检索能力,包括检索增强生成(R 2024-03-03 #深度学习 #人工智能