DLinear-Are Transformers Effective for Time Forecasting 这篇论文使用一个简单的线性层模型超过了众多Transformer系列复杂模型。不仅让人疑问:时序预测中Transformer的发展是否真的有效? 源代码。出自AAAI 2023 2024-02-14 #深度学习 #人工智能 #时间序列
Depth Anything-Unleashing the Power of Large-Scale Unlabeled Data Depth Anything是一种鲁棒的单目深度估计解决方案,其充分利用各种未标记的图像和预训练模型中丰富的语义先验,具有优异的零样本深度估计能力。 由香港大学、浙江大学等人提出。 网页版Demo 2024-02-11 #深度学习 #人工智能 #计算机视觉 #深度估计
周耀辉解析《春秋》 全文转载自林日曦对周耀辉的记载。 一首歌之所以能扣人心弦,有三个不可或缺的因素:动人的旋律、能引起共鸣的歌词、演绎者恰到好处的感情投入。这样一个“想爱却无法爱”的常见题材,被词、曲、唱三者通力演绎,创造出了全新的境界。 张敬轩对这首歌的演绎无可挑剔,感情到位、唱功完美,大气、磅礴、悲壮、浓烈。 2024-02-06 #音乐
Mamba---Linear-Time Sequence Modeling with Selective State Spaces 论文两位作者Albert Gu和Tri Dao,博士都毕业于斯坦福大学,导师为Christopher Ré。 Albert Gu现在是CMU助理教授,多年来一直推动SSM架构发展。他曾在DeepMind 工作,目前是Cartesia AI的联合创始人及首席科学家。 Tri Dao,以FlashAttention、FlashDecoding系列工作闻名,现在是普林斯顿助理教授,和Together A 2024-01-31 #深度学习 #人工智能 #自然语言处理
On Embeddings for Numerical Features in Tabular Deep Learning 该论文使用表格深度学习的一些新embedding。论文地址 出自NIPS 2022 Hardy Xu利用该方法获得了kaggle Playground Series - Season 3, Episode 26: Multi-Class Prediction of Cirrhosis Outcomes的第二名。 本文提出了两种不同的构建块,适用于构建数字特征的嵌入。第一种是分段线性编码,它为原始 2024-01-16 #机器学习 #深度学习 #人工智能 #tabular data
Self-Supervision is All You Need for Solving Rubik’s Cube 该论文使用NN来解魔方,耳目一新的方法。论文地址 TMLR 2023. 简单来说,该方法利用了组合搜索的一个基本特性:等概率的情况下路径越短,随机发生的可能性就越大。这意味着随机训练争夺的累积概率随着移动次数的减少而增加:$1/\mathbb{M}^N$,其中$\mathbb{M}$表示移动集,N表示路径长度。 2024-01-13 #深度学习 #人工智能
SC-NAFSSR 该论文来自同级的qzd等同学。论文地址 指导老师为金枝老师,发表于CVPR的wordshop论文。为CVPR的NTIRE 2023双目图像超分辨率挑战赛的第二名解决方案。 2023-08-02 #深度学习 #人工智能 #peer #计算机视觉
Frozen Language Model Helps ECG Zero-Shot Learning 该论文来自同级的lj同学。一位将去哈佛的大佬。 论文地址:https://openreview.net/forum?id=UAr59yTUWR2 共同一作:lj和来自伦敦帝国理工学院地球科学与工程系的Che liu 发表自MIDL(The International Conference on Medical Imaging with Deep Learning)是一个非常年轻的医学图像方向的会议 2023-07-14 #深度学习 #人工智能 #peer #医学图像