新方法用于识别AI幻觉被介绍

像ChatGPT这样的当代生成性人工智能工具有一个问题:它们经常自信地提供错误信息。

Eulerpool News

在当今的生成性人工智能(如ChatGPT)中,持续存在的一个挑战是它们经常自信地声称错误的信息。这种行为被计算机科学家称为“幻觉”,它对人工智能的实用性构成了一个重要障碍。

产生幻觉已经导致了一些尴尬的公共事件。二月份,加拿大航空(Air Canada)被一个法庭要求承认由其客户服务聊天机器人错误地向一名乘客提供的折扣。

五月,谷歌被迫对其新搜索功能《AI 概要》进行修改,此前该机器人曾告诉一些用户,可以安全地吃石头。

去年六月,两名律师被一位美国法官处以5000美元的罚款,因为其中一名律师承认在准备诉讼文件时使用了ChatGPT。聊天机器人在文件中插入了引用不存在案件的虚假引用。

对律师、搜索引擎巨头和航空公司来说是个好消息:至少某些类型的AI幻觉可能很快成为过去。周三在科学期刊《自然》上发表的新研究描述了一种检测AI幻觉的新方法。

该方法能够在约79%的情况下区分正确和错误的AI生成答案——比其他领先方法高出约10个百分点。尽管该方法仅解决了AI幻觉的其中一个原因,并且所需计算能力约为标准聊天机器人对话的十倍,但这些结果可能为更可靠的AI系统铺平道路。

我的目标是找到方法,在目前尚无法使用大型语言模型的地方应用它们——这些地方需要比现有模型更高的可靠性,"研究报告的作者之一、牛津大学计算机科学系高级研究员塞巴斯蒂安·法夸尔(Sebastian Farquhar)说道,该研究便是在该系进行的。

Farquhar 也是 Google DeepMind 安全团队的研究员。关于因 ChatGPT 幻觉而被惩罚的律师,Farquhar 说:“这会对他有所帮助。”

以下是该标题的中文翻译:

“‘幻觉’这一概念在人工智能领域的意义增强,但也存在争议。它暗示模型具有某种主观的世界体验,而大多数计算机科学家对此表示否定。此外,这一概念还暗示幻觉是一个可解决的特性,并不是大型语言模型的基本问题。Farquhar的团队专注于一类特定的幻觉,他们称之为‘编造’。”

当一个人工智能模型在事实性问题上给出了不一致的错误答案时,会出现这种情况,这不同于始终如一的错误答案,这通常归因于模型的训练数据问题或模型逻辑中的结构性错误。

识别杜撰的方式相对简单。

研究人员计算一个称为“语义熵”的指标——衡量答案的意义有多相似或不同的标准。高语义熵表明模型在编造信息。

识别语义熵的方法超过了其他识别AI幻觉的方法。法夸尔有一些想法,认为语义熵可以帮助减少领先聊天机器人中的幻觉。

他认为这在理论上可以让OpenAI增加一个按钮,使用户能够评估答案的确定性。该方法还可以集成到其他在高度敏感环境中使用人工智能的工具中,在这些环境中准确性至关重要。

在Farquhar怀抱乐观态度的同时,一些专家警告不要高估其即时效应。普林斯顿大学计算机科学教授Arvind Narayanan强调了将这项研究整合到现实应用中的挑战。

他指出,幻觉是大型语言模型运作的一个基本问题,短期内不太可能完全解决。

一眼就能识别出被低估的股票。
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

订阅费为2欧元/月

新闻