Bear
  • 首页
  • 目录
  • 标签
  • latex识别
  • 每日arxiv
  • 关于
顽石从未成金,仍愿场上留足印。

信息瓶颈与在图中的应用

Information Bottleneck又称信息瓶颈,是一个基于信息论的算法。
2024-05-20
#深度学习 #图神经网络 #信息论

MambaOut-Do We Really Need Mamba for Vision?

mamba是继transformer之后大火的结构之一。也涌现了各种mamba,各种领域的mamba。本博客之前也介绍了这一算法。 出自NUS的Weihao Yu, Xinchao Wang等人提出了纯卷积的mamaout意图打败mamba。 MambaOut 模型在 ImageNet 图像分类上超越了所有视觉 Mamba 模型,表明 Mamba 对于该任务确实是不必要的。至于检测和分割,Mamb
2024-05-16

Graph-MLP--Node Classification without Message Passing in Graph

《Graph-MLP: Node Classification without Message Passing in Graph》【arxiv 2021】 最近的图神经网络(GNN)都依赖于邻接矩阵来指导特征聚合过程中邻居之间的消息传递,研究工作主要集中在强大的消息传递模块上。然而本文表明没有任何消息传递模块也是可行的。相反地,本文通过设计了一个邻近对比(NContrast)损失,通过隐式利用邻接
2024-05-13
#深度学习 #人工智能 #图神经网络

RNN与注意力

2014年,Volodymyr的《Recurrent Models of Visual Attention》一文中首先将注意力其应用在视觉领域,后来伴随着2017年Ashish Vaswani的《Attention is all you need》中Transformer结构的提出,注意力机制大成。 在注意力机制中,除去耳熟能详的SENet和CBAM,也有一些主动去学习注意区域的网络算法。 比如以
2024-05-12
#深度学习 #人工智能 #注意力

FINDING ADVERSARIALLY ROBUST GRAPH LOTTERY TICKETS

《FINDING ADVERSARIALLY ROBUST GRAPH LOTTERY TICKETS 》NeurIPS 2023&ICLR 2024
2024-05-11
#深度学习 #人工智能 #图神经网络

prompt压缩

prompt压缩技术可以减少输入prompt的长度,同时保持各种任务的性能。
2024-04-29
#深度学习 #自然语言处理

光电与概念漂移

这部分的论文比较少,且难找。 主要介绍以下三篇论文: 论文一: 《Online prediction of photovoltaic power considering concept drift》
2024-04-10
#人工智能 #光电

每个人都应该掌握的快速调研法

来着Up主老蒋巨靠谱的《面试必备!每个人都应该掌握的快速调研法》
2024-04-03

残差结构的讨论

本文主要围绕《ResiDual: Transformer with Dual Residual Connections》和《Identity Mappings in Deep Residual Networks》展开。 在深度学习中,乃至当今很火的transformer,残差是一个很重要的部分。 残差结构的讨论也是老生常谈的话题了,比如transformer中应该选择Pre Norm与Post N
2024-03-08
#深度学习 #人工智能

RNNS ARE NOT TRANSFORMERS (YET)

论文:RNNS ARE NOT TRANSFORMERS (YET) -THE KEY BOTTLENECK ON IN-CONTEXT RETRIEVAL 本文研究了递归神经网络(rnn)和transformer在解决算法问题方面的表示能力差距。理论分析表明,CoT改善了rnn,但不足以缩小与transformer的差距。 我们证明,采用技术来增强 RNN 的上下文检索能力,包括检索增强生成(R
2024-03-03
#深度学习 #人工智能
1…910111213…26

搜索

LJX Hexo
博客已经运行 天