Bear
  • 首页
  • 目录
  • 标签
  • latex识别
  • 每日arxiv
  • 关于
顽石从未成金,仍愿场上留足印。

基于核复杂度的无需训练的防御方法

arxiv,《KCES: Training-Free Defense for Robust Graph Neural Networks via Kernel Complexity》
2025-06-17
#深度学习 #图神经网络

传统kmeans并不是(局部)最优

(ICML 2025) 《Modified K-means Algorithm with Local Optimality Guarantees》 K-means是广泛使用的聚类算法,尽管它不一定能保证全局最优,但大家都约定速成地认为K-means会收敛到局部最优解。 但其实不然。
2025-06-15
#机器学习

V-JEPA 2

在23年,本Blog已经介绍过JEPA,也就是lecun推出的世界模型结构。 Lecun一直不相信当前的LLM,而布局于“世界模型”。 当时主要是对图片处理,也就是Image-JEPA。而V-JEPA代表是对视频(video)处理。
2025-06-13
#深度学习

学会排序算法

Learning-to-Rank (LTR) 是一种运用机器学习技术来解决排序问题的领域。它的核心目标是,训练一个模型,让这个模型能自动地对一个项目列表进行优化排序,使得排序结果尽可能地好。 常用的算法有RankNet和LambdaRank等。
2025-06-10
#机器学习

流模型与流匹配

流模型与流匹配介绍。
2025-06-09
#深度学习 #物理 #生成模型

经典的GNN被淘汰了吗?

各种GNN结构层出不穷,比如Graphformer等transformer模型。不禁产生一个疑问:经典的GNN被淘汰了吗? 以下这几篇正是对这一疑问的驳斥。 正好对应图领域中的链接预测、节点分类、图层次三大任务。其中后两篇均为Yuankai Luo的作品。
2025-06-06
#深度学习 #图神经网络

时间序列预测与后门攻击

后门攻击简单来说,是攻击者通过在训练过程中嵌入触发器(trigger)来操纵测试时的预测。 但后面攻击普遍用于CV或分类中,时间序列(预测)中比较少。
2025-06-03
#深度学习 #图神经网络 #时间序列

卷积层与位置编码

在NLP领域中,比如经典的textcnn是没有位置编码,那么CNN中的位置信息是从何而来的呢?
2025-06-01
#深度学习 #计算机视觉 #自然语言处理

Child Mind Institute历届比赛获胜方案

Child Mind Institute(下称CMI)之前在 Kaggle 上举办了两场竞赛,一场与检测睡眠状态有关,另一场与检测有问题的互联网使用有关。加上这个月开始举办的关于检测强迫性重复行为的比赛总计3场。
2025-05-30
#kaggle

DDPM加速

正如DDIM作者在其论文中所写,“从 DDPM 中采样 50k 个 32×32 大小的图像大约需要 20 小时,但在 Nvidia 2080 Ti GPU 上从 GAN 中完成这一操作不到一分钟。” DDPM等扩散模型的慢速度一直被诟病。 在这篇博客中,将介绍一部分的加速模型。
2025-05-27
#深度学习 #生成模型
123…21

搜索

LJX Hexo
博客已经运行 天