Page 1 of 1

谷歌研究人员介绍了一种改进人

Posted: Sun Mar 23, 2025 5:23 am
by tanjimajha15
工智能搜索和助手的方法,即增强检索增强生成 (RAG) 模型识别检索到的信息是否缺乏足够的背景信息来回答查询的能力。如果实施,这些发现可以帮助人工智能生成的响应避免依赖不完整的信息并提高答案的可靠性。这种转变还可能鼓励发布者创建具有足够背景信息的内容,使他们的页面更​​适合人工智能生成的答案。


他们的研究发现,Gemini 和 G 德国电话格式 PT 等模型经常在检索到的数据包含的背景信息不足时尝试回答问题,从而导致幻觉而不是放弃回答。为了解决这个问题,他们开发了一个系统,通过帮助 LLM 确定检索到的内容何时包含足够的信息来支持答案来减少幻觉。

检索增强生成 (RAG)系统使用外部背景来增强 LLM,以提高问答准确性,但幻觉仍然会出现。目前尚不清楚这些幻觉是源于 LLM 误解还是检索到的背景不足。该研究论文介绍了充分背景的概念,并描述了一种确定何时有足够信息来回答问题的方法。

他们的分析发现,Gemini、GPT 和 Claude 等专有模型在提供足够的背景信息时往往会提供正确答案。然而,当背景信息不足时,它们有时会产生幻觉而不是弃权,但它们也有 35-65% 的时间能正确回答。最后一项发现又带来了另一项挑战:知道何时进行干预以迫使弃权(不回答)以及何时相信模型能够正确回答。


定义充分上下文
研究人员将充分背景定义为检索到的信息(来自 RAG)包含得出正确答案所需的所有细节。将某事物归类为包含充分背景并不要求它是经过验证的答案。它只是评估是否可以从提供的内容中合理地得出答案。

这意味着分类不是在验证正确性,而是评估检索到的信息是否为回答查询提供了合理的基础。