欢迎您访问 最编程 本站为您分享编程语言代码,编程技术文章!
您现在的位置是: 首页

准备 2024 年大模型面试(3):聊聊大模型幻觉问题

最编程 2024-03-26 12:18:34
...

节前,我们组织了一场算法岗技术&面试讨论会,邀请了一些互联网大厂朋友、参加社招和校招面试的同学,针对大模型技术趋势、大模型落地项目经验分享、新手如何入门算法岗、该如何备战、面试常考点分享等热门话题进行了深入的讨论。

合集在这里:《大模型面试宝典》(2024版) 正式发布!

今天分享大模型面试中经常被问答的大模型的幻觉问题

文章目录

    • 一、幻觉(Hallucination)的定义
    • 二、为什么LLM会产生幻觉?
    • 三、如何度量幻觉?
    • 四、如何缓解LLM幻觉?
      • 4.1 事实核心采样
      • 4.2 通过使用外部知识验证主动检测和减轻幻觉
      • 4.3 SelfCheckGPT
    • 五、幻觉一定是有害的吗?
    • 技术交流群
    • 用通俗易懂方式讲解系列

一、幻觉(Hallucination)的定义

不遵循原文(Faithfulness)或者不符合事实(Factualness)

在传统任务里,幻觉大都是指的是Faithfulness:

  • Intrinsic Hallucination(信息冲突)
    LMs在生成回复时,与输入信息产生了冲突,例如摘要问题里,abstract和document的信息不一致。

  • Extrinsic Hallucination(无中生有)
    LMs在生成回复时,输出一些并没有体现在输入中的额外信息,比如邮箱地址、电话号码、住址,并且难以验证其真假。(PS: 按照此定义,Extrinsic Hallucination有可能是真的信息,只是需要外部信息源进行认证)

而面向LLMs,我们通常考虑的幻觉则是Factualness。

因为我们应用LLM的形式是open-domain Chat,而不是局限于特定任务,所以数据源可以看做任意的世界知识。LLMs如果生成了不在input source里的额外信息,但是符合事实的,这种情况也可能是对我们有帮助的。

LLM幻觉(Hallucination)经常表现为一本正经的胡说八道:看似流畅自然的表述,实则不符合事实或者是错误的。

LLM幻觉主要可以分为两类:即内在幻觉外在幻觉

  • 内在幻觉
    生成的内容与源内容相矛盾。

  • 外部幻觉
    生成的内容不能从源内容中得到验证,既不受源内容支持也不受其反驳。

LLMs的幻觉可能会产生如传播错误信息或侵犯隐私等严重后果。eg: 在医疗应用中,对患者生成的报告如果存在幻觉可能导致错误诊断甚至影响生命安全。

幻觉影响了模型的可靠性和可信度,因此需要解决LLM的幻觉问题。

二、为什么LLM会产生幻觉?

  • 大模型缺乏相关的知识,或者存储的知识是错的。这个问题主要是由于预训练数据决定的。

  • 大模型高估了自己的能力,他可能不知道问题的边界,编造内容回复。

  • 对齐问题,这里主要是说我们通过指令精调,模型可以基于我们的instruciton做出回复,但是调教出来的大模型可能会迎合我们的instruciton,也有可能在某个问题下,他不具备这方面的知识,而问题又必须让他回答,他就只能生成一个一本正经的胡说八道内容。

  • 在decoder-only的结构下,生成策略我们是每次生成一个token,早期如果就错了,那么后期大模型只能将错就错,不会纠正之前的错误,这也就产生了幻觉滚雪球的现象。还有像top-k,top-p的采样策略也会有影响。(top-k是每次解码时选择k个最大的概率,随机采样;top-p,是选定一个概率阈值,如chatgpt中默认的是0.95,意思是我们选择词表概率加和到大于等于0.95时随机采样。

  • 最后,如GPT之类的生成模型,其实只是学会了文本中词汇间的统计规律,所以它们生成内容的准确性仍然是有限的。

三、如何度量幻觉?

最有效可靠的方式当然是靠人来评估,但是人工评估的成本太高了。因此有了一些自动化评估的指标:

  • 命名实体误
    命名实体(NEs)是“事实”描述的关键组成部分,我们可以利用NE匹配来计算生成文本与参考资料之间的一致性。直观上,如果一个模型生成了不在原始知识源中的NE,那么它可以被视为产生了幻觉(或者说,有事实上的错误)。

  • 蕴含率
    该指标定义为被参考文本所蕴含的句子数量与生成输出中的总句子数量的比例。为了实现这一点,可以采用成熟的蕴含/NLI模型

  • 基于模型的评估
    应对复杂的句法和语义变化。

  • 利用问答系统
    此方法的思路是,如果生成的文本在事实上与参考材料一致,那么对同一个问题,其答案应该与参考材料相似。具体而言,对于给定的生成文本,问题生成模型会创建一组问题-答案对。接下来,问答模型将使用原始的参考文本来回答这些问题,并计算所得答案的相似性。

  • 利用信息提取系统
    此方法使用信息提取模型将知识简化为关系元组,例如<主体,关系,对象>。这些模型从生成的文本中提取此类元组,并与从原始材料中提取的元组进行比较。

四、如何缓解LLM幻觉?

与幻觉有关的数据问题可以(至少理论上)通过创建高质量无噪声的数据集来解决。但是,验证和清理数百GB的文本语料库难度太大了。

因此也有了一些其他的方法:

  • 事实核心采样

  • 利用外部知识验证正确性

  • 采样多个输出并检查其一致性

4.1 事实核心采样