评分 7 · 来源:cs.CL updates on arXiv.org · 发布于 2026-04-22
评分依据:提出推理边界感知(inferential boundary awareness)概念,解释LLM在输入不全时编造信息的根因。对grounded reasoning有实际指导意义
核心问题
大语言模型在复杂推理任务上取得了显著进展,但当输入信息不完整时,往往隐式地编造信息,产生自信但不可靠的结论。本文将这种失败模式称为ungrounded reasoning(无根由推理)。
关键洞察
作者论证这一问题的根源并非推理能力不足,而是缺乏推理边界感知能力(inferential boundary awareness)——即识别有效推理所需前提是否完备的能力。
方法论贡献
- 定义了inferential boundary的形式化框架
- 提出训练策略使模型学会”暂停”或”拒绝”而非编造
- 在多个推理基准上验证方法有效性
实用价值
对需要在真实不确定环境中部署LLM的场景(如法律、医疗、金融分析)具有直接指导意义。