避免关于 DeepSeek 的幻觉和错误信息

2025年4月23日 | 阅读9分钟

在这个现代世界中,所谓的“DeepSeek”被誉为尖端平台,它旨在彻底改变我们在线搜索和访问信息的方式。与依赖词语匹配和算法的传统搜索引擎不同,该算法主要旨在通过提供更准确、更具上下文驱动的结果来增强搜索体验。

Avoiding Hallucinations & Misinformation about DeepSeek

尽管如此,该选定平台仍利用先进的 人工智能自然语言处理 技术来更好地理解查询背后的意图,从而提供能够有效满足用户需求或要求的相关信息。

DeepSeek 的主要目标之一是减少错误信息的传播,并尽量减少幻觉的发生——即搜索结果中偶尔出现的错误或虚假信息。通过专注于可信、权威的来源并验证内容的可靠性,DeepSeek 允许个人确保信息的可靠性和准确性。我们还知道 DeepSeek 主要旨在为用户提供更多的透明度和控制权,以便在搜索信息时。它允许用户确切地看到信息来自哪里,从而更容易理解结果是如何生成的。这种方法有助于用户更清晰地了解他们实际接收到的信息背后的过程。

什么是 AI 幻觉?

AI 幻觉是指 AI 模型生成不正确或误导性信息,但将其呈现为事实的情况。关于什么构成“幻觉”存在一些争论。 甚至这个词是否适用于 AI 模型捏造信息的情况,但就我们而言,只要 AI 对其应该能够正确回答的提示做出错误响应,我们就将其视为幻觉。

Avoiding Hallucinations & Misinformation about DeepSeek

我们都知道,像 ChatGPT 这样的 大型语言模型 (LLM) 实际上并不“知道”任何东西。然而,所有这些模型主要旨在预测最可能的文本字符串,这通常基于它们收到的提示。它们的主要工作是根据它们在海量文本数据中看到的模式生成通常符合我们实际要求的话语。因此,当我们问 AI 问题时,它们不会从事实数据库中检索信息或理解现实。

现在,让我们将其视为 **自动纠正** 的高级版本。当我们开始输入时,自动纠正会尝试根据我们实际写的内容最能理解的内容来猜测下一个词。LLM 的工作方式类似,只是它们不止于一个词。它们会生成整个句子甚至段落以继续对话。

核心问题是,所有这些模型都没有对世界的内部理解。然而,除此之外,它们也不知道什么对什么错;它们总是专注于预测最有可能跟在提示后面的内容。如果模型“不知道”问题的答案,它通常会编造一个听起来不错的东西,即使它完全错误。当模型生成虚假或无意义的信息时,我们称之为 AI 的“幻觉”。

当我们依赖所有这些模型来提供准确信息时,这可能会成为一个问题。例如,当个人询问 ChatGPT 关于历史事件或科学事实时,它可能会给出一个听起来不错的答案,但可能完全不准确。这是因为模型不是从可靠的知识库中提取信息;而是有效地、高效地生成与训练中看到的模式一致的文本。

理解这一点的一种方式是,模型不像人类那样进行“推理”或应用逻辑。人类在回答问题时可以借鉴事实知识、逻辑和推理。但 LLM 不会这样做——它们不概念化世界上正在发生的事情。尽管如此,它们也不知道 1+1 等于 2;它们知道,在大多数情况下,“1+1”后面通常跟着“2”在其训练的数据中。这就是为什么在数学方面,LLM 可能需要依赖外部工具(也就是计算器)来提供准确的答案。

AI 幻觉的主要原因

造成 AI 幻觉的主要原因如下:

Avoiding Hallucinations & Misinformation about DeepSeek
  1. 训练数据差或不完整: 我们都知道 AI 模型主要从海量可用数据中学习一切。如果提供给模型训练的数据不完整、过时或质量低下,AI 将无法生成正确答案。当面对不熟悉的问题或主题时,模型可能会根据其有限的知识创建一个答案,即使该答案是错误的。例如,如果模型没有用足够多的特定主题示例进行有效训练,它可能会给出虚构或无意义的答案。
  2. 数据检索问题: 确实,一些 AI 模型可以轻松地从外部源(如互联网)获取数据以改进其响应。而更常见的是,它们无法验证所有这些可用信息是否准确。当它们拉入数据时,数据可能具有误导性或根本不正确。AI 可以拉入信息,但它不一定知道信息的好坏,以有效避免与错误相关的混淆。
  3. 过拟合: 当 AI 模型过于依赖其训练的数据集时,就会出现“过拟合”一词。因此,除了广泛应用知识之外,所选模型还会记住所有提供的示例,这使其在解决所有与它最初训练相关的问题方面都表现出色,但在处理新的或意外情况时表现糟糕。当被要求积极做出预测或生成新答案时,AI 可能会偏离轨道或产生幻觉,因为它无法有效地泛化新数据。
  4. 习语或俚语造成的混淆:如果提示包含 AI 模型尚未训练识别或完全理解的俚语、习语或短语,可能会导致奇怪或无意义的输出。
    • 例如, 询问 AI 关于“kick the bucket”这样的短语可能会让它感到困惑,导致它生成的答案似乎不合适或不相关,这是因为它没有将其识别为比喻。
  5. 故意混淆(对抗性攻击): 一些用户可能会通过提供旨在混淆 AI 的提示来欺骗 AI。更常见的是,这会导致 AI 生成毫无意义或事实不准确的响应。然而,所有这些类型的攻击都突显了 AI 系统的一个漏洞。

尽管如此,AI 幻觉在这些系统的设计和训练方式中仍然是一个固有的挑战。即使拥有先进的算法并输入了大量数据集,也没有 AI 系统是完美的。即使经过充分的训练和清晰的指示,AI 仍有可能出错。

AI 幻觉的各种示例

幻觉是 AI 的一个普遍问题。它可以从简单的错误到严重的推理失败。以下是我们可能会发现 AI 产生幻觉的一些类型(或者说是以有效方式被称为幻觉的内容):

  1. 完全捏造的事实、引用和其他细节。例如,ChatGPT 经常建议我写了所有我从未发表过的文章,并且有多位律师因提交带有捏造案例法的论文而惹上麻烦。
  2. 将其他来源的错误、讽刺或谎言重复为事实。这就是胶水披萨以及声称巴拉克·奥巴马是穆斯林的来源。
  3. 未能提供完整的上下文或我们实际需要的所有信息。例如,关于什么蘑菇可以安全食用,很少列出有毒蘑菇作为可食用蘑菇,但它们通常提供关于正确识别任何特定蘑菇的不足细节。如果我们遵循 AI 的建议,可能会错误地吃掉有毒蘑菇。
  4. 误解我们最初的提示,然后做出适当的响应。我花了几个月的时间试图让 ChatGPT 为我解数独,但它总是误解原始的谜题状态,然后无法作为结果来解决。

我们能阻止 AI 幻觉吗?

众所周知,AI 幻觉几乎是不可能完全阻止的。它们是现代 AI 模型工作方式的不幸副作用。也就是说,有一些方法可以尽可能地减少幻觉。最有效的减少幻觉的方法是在后端。在本节中,我们将分享一些可用于从聊天机器人和其他 AI 工具中获取最准确信息的技巧。但实际上,ChatGPT 不再经常捏造随机的法国国王的原因是 OpenAI 花费了大量时间和资源添加了安全防护措施来阻止它产生幻觉。

通过提示工程预防 AI 幻觉

虽然开发人员必须构建能够有效最小化幻觉的 AI 工具,但我们仍然可以通过我们与 AI 的交互方式(基于我们如何提示 AI)来使 AI 模型更准确。

Avoiding Hallucinations & Misinformation about DeepSeek
  1. 请不要使用基础模型执行它们未训练过的任务。 ChatGPT 主要被认为是通用聊天机器人,它接受了广泛内容的训练。它并非专为特定用途而设计,例如引用案例法或进行科学文献综述。虽然它通常会给出答案,但可能不会很好。相反,请找到一个专为该任务设计的 AI 工具并使用它。
  2. 提供信息、引用、数据以及任何其他我们可以提供的内容。同样,向我们使用的任何 AI 工具提供尽可能多的上下文。对于像 ChatGPT 和 Claude 这样的聊天机器人,我们可以上传文档和其他文件供 AI 使用;对于其他工具,我们可以创建一个完整的 RAG 数据库供其调用。
  3. 核查重要输出。虽然大多数 AI 工具对于非关键任务来说都足够好,但如果我们询问 Meta AI 某种蘑菇是否可以安全食用,请在真菌学网站上仔细检查结果。
  4. 使用自定义指令和控件。根据我们使用的 AI 工具,我们可能能够设置自定义指令或调整“温度”等控件来控制它们的响应方式。即使没有设置控件,我们也可以添加诸如“做一个有帮助的人!”之类的提示,以使 AI 以特定方式响应。
  5. 要求 AI 仔细检查其结果。特别是对于逻辑或多模态任务,如果您不确定 AI 是否正确,我们可以要求它仔细检查或确认其结果。
  6. 采用链式思维、从少到多和少样本提示。一些提示 LLM 的方法比其他方法更有效。如果我们要求 AI 解决一个逻辑谜题,请让它在每一步解释其推理过程,或将其分解为各个组成部分并逐个解决。如果可以,请给任何 AI 模型提供我们实际希望它完成的示例。所有这些提示工程技术已被证明可以从 LLM 中获得更准确的结果。
  7. 提供清晰、单步的提示。虽然像链式思维提示这样的技术可以使 LLM 在解决复杂问题方面更有效,但如果我们直接给出只需要一次逻辑运算的提示,通常会获得更好的结果。这样,AI 就有更少出现幻觉或出错的机会。
  8. 限制 AI 的可能结果。同样,给 AI 一个二选一的选项,提供几个我们希望它如何响应的示例,或者要求它以特定方式格式化其结果。我们可能会获得更好的输出,并且幻觉更少。

最后,要预期会出现幻觉。无论您多么小心,都要预期我们使用的任何 AI 工具 偶尔都会出现异常。如果您预计偶尔会出现幻觉或奇怪的响应,您就可以在 AI 聊天机器人给您的公司带来麻烦之前发现这些偶尔的幻觉或奇怪的响应。