同质性对图神经网络是必需的吗? 出自《Is homophily a necessity for graph neural networks? 》ICLR, 2022. GNNs 通常被认为由于同质性假设(“物以类聚”)而工作良好,但在异质性图中(不同节点相连)泛化能力较差。 这篇论文则认为,如果图中的同一类的结点具有相似的邻居的分布, 则 Homophily 不是必须的。 2025-05-12 #深度学习 #图神经网络
Fourier Position Embedding Fourier Position Embedding(FOPE)出自ICML2025,对当前LLM常用的ROPE进行了改进,认为ROPE默认“每一维只存在单一频率的语义”是过于理想的,所以提出了增加更多的频率(比如基于傅里叶)的方法。 2025-05-11 #深度学习
XGBoost中的base_score 本文主要源自与@broccoli beef的讨论和kaggle的TPS竞赛经历。笔者率先指出了base_score的差异,但@broccoli beef给出了更多有价值的意见和内容。 2025-05-03 #机器学习 #kaggle
力场启发的扩散模型 本文将介绍两篇论文,巧妙地通过力场的思想去构建扩散模型。出品自MIT,作者包括KAN一作刘子鸣等,(但对于KAN那篇,个人认为噱头大于实用性。) 2025-05-02 #深度学习 #物理 #生成模型
贝叶斯来加噪:Bayesian Flow Networks Bayesian Flow Networks是由Alex Graves提出的,使用贝叶斯技巧关于生成的模型算法。 2023年,我就看到了这篇论文,但由于篇幅过长、数学推导较多难以理解、无闲暇时间,最终拖到两年后的今天,才决定动手写写自己的理解。 此文写法并不算太好,据闻youtube上也有说此文晦涩的评论。文中Alice&Bob发生和接收的意图从“趣味”入手的案例反而加难了初学者对论文的理 2025-05-01 #深度学习 #信息论 #生成模型 #贝叶斯
Diffusion Model Difussion模型是当今生成领域火热的模型,过往的GAN和VAE已然退出前排。 本文主要围绕《Denoising Diffusion Probabilistic Models》 (DDPM) 展开。 2025-04-27 #深度学习 #生成模型
消息传递与特征变换分离的图神经网络 在研究图神经网络的鲁棒性的时候,发现消息传递和特征变化分离开会更有鲁棒性,但未找到是否有前人做过。后来我才发现这正是PPNP的结构。 PPNP PPNP(personalized propagation of neural predictions)出自ICLR2019的《 Predict then Propagate: Graph Neural Networks meet Personalized 2025-04-26 #深度学习 #图神经网络
Target Encoding Target Encoding又名mean encoding。正如其名,实际上是把符合条件的y的均值作为这个条件的所有样本的新特征。 在kaggle的S5E2和这个月正在进行的S5E4等比赛都获得了耀眼的表现。 最简单的形式是 1df.groupby("xxx").mean() 2025-04-25 #机器学习 #kaggle
ICLR25 Oral 若干(感兴趣)论文解析 ICLR25这几天在新加坡进行,借着兴致,选择了若干篇感兴趣的文章进行分享。本着能复现的原则,会尽量选择有代码或者实现容易的论文。 Joint Graph Rewiring and Feature Denoising via Spectral Resonance 论文地址: https://openreview.net/forum?id=zBbZ2vdLzH 代码: https://github. 2025-04-24 #深度学习 #人工智能