Bear
  • 首页
  • 目录
  • 标签
  • latex识别
  • 每日arxiv
  • 关于
顽石从未成金,仍愿场上留足印。

幻觉与越狱的一致性

(ICLR 2026在投) 原标题是《从幻觉到越狱:重新思考大型基础模型的脆弱性》 作者提出一个统一的理论框架,将越狱行为建模为 token 级别的最优化,将幻觉现象建模为注意力级别的最优化。 在此框架下,作者建立了两个关键命题: (1) 相似损失收敛——在优化目标特定输出时,两种漏洞的损失函数表现出相似的收敛特性 (2) 注意力重分配中的梯度一致性——两者均表现出由共享注意力动态驱动的一致梯度
2025-11-03
#深度学习 #大模型

少即是多:从 EOS 决策角度缓解多模态幻觉

(ACL 2024)
2025-11-02
#深度学习 #大模型

性能提升的幻觉:为什么对比解码无法缓解多模态大模型中的对象幻觉问题?

(NIPS 2025) 作者认为,目前的一些对比解码方法在POPE等基准测试上观察到的性能提升是一种假象 ,并非真正解决了幻觉问题。
2025-11-01
#深度学习 #大模型

基于参数高效微调的可扩展确切机器遗忘方法

( ICLR 2025) SISA的改进版。 没想到25年居然还有涉及的论文。
2025-10-31
#深度学习

频域特征对多模态大模型的幻觉影响

(arxiv 3月)Mitigating Object Hallucinations in MLLMs via Multi-Frequency Perturbations目前仍缺乏研究探讨视觉特征在频域中对多模态大模型(MLLMs)的作用。甚至尚未有先验工作探索其在 MLLMs 中的物体幻觉现象中的作用。 作者实验,无论“高频”还是“低频”被移除,模型的幻觉比例都会显著增加。这表明这两种信息
2025-10-29
#深度学习 #大模型

ChunkLLM:A Lightweight Pluggable Framework for Accelerating LLMs Inference

(arxiv 2025)2510.02361 ChunkLLM 不仅在短文本基准上达到与基线相当的性能,同时在长上下文基准上仍保持 98.64% 的性能,并维持48.58% 的关键值缓存保留率。特别地,在处理 120K 长文本时,ChunkLLM相较于原始 Transformer 实现了最高达 4.48× 的加速比。 现有方法的局限性: 线性注意力(Linear Attention)(如Mamb
2025-10-26
#深度学习 #大模型

RoseLoRA:面向知识编辑与微调的预训练语言模型行与列稀疏低秩适配

(EMNLP 2024)
2025-10-22
#深度学习 #大模型

拒绝如坠悬崖:推理中的安全对齐为何失效?

(arxiv 2510.06036) 核心思想与摘要大型推理模型(LRMs)虽然展现了强大的多步骤推理和解决问题的能力,但它们在安全对齐方面却常常表现不佳,存在令人担忧的漏洞 。这篇论文的核心目的就是从“机理解释性”的视角出发,探究这些推理模型安全对齐失败的内部机制 。
2025-10-21
#深度学习 #大模型

LVLM幻觉幻觉思维导图

截止至25年10月3日,参考github awesome。
2025-10-16
#笔记 #kaggle

Kaggle Grandmasters playbook:7 种经过实战考验的表格数据建模技术

转自nvidia的blog
2025-10-14
#笔记 #kaggle
123…25

搜索

LJX Hexo
博客已经运行 天