共计 14 篇文章
2025
MokA:Multimodal Low-Rank Adaptation for MLLMs
Mitigating Hallucinations in Large Vision-Language Models by Self-Injecting Hallucinations
Nullu:通过 HalluSpace 投影减轻大型视觉-语言模型中的对象幻觉
Vision Transformers Don't Need Trained Registers
LLM中MOE的安全行为
DoLa:通过对比层解码提高大型语言模型的事实性
PerturboLLaVA:通过扰动视觉训练减少多模态幻觉
对比解码之VCD
ICR 探针:追踪隐藏状态动态以在 LLMs 中实现可靠的幻觉检测
RobustKV:通过 KV 驱逐机制保护大型语言模型免受越狱攻击