tokenpocket安卓版下载-Anthropic 首席执行官表示,人工智能模型“可能”比人类产生幻觉的程度更低

Anthropic 首席执行官 Dario Amodei 表示,目前的人工智能模型产生的幻觉比人类少。他还表示,如今的人工智能模型会编造一些事情,并将其呈现为真实的,但这不会限制 Anthropic 迈向通用人工智能 (AGI) 的道路。

周四,在旧金山举行的 Anthropic 首届开发者活动“Code with Claude”的新闻发布会上,Amodei 还指出,电视广播员、政客以及各行各业的人类都会犯错。他认为,人工智能也会犯错,但这并不会降低其智能。

Amodei 表示,人工智能幻觉不会破坏 Anthropic 的目标

Amodei 在发表上述言论的同时,也承认 AI 幻觉不会限制 Anthropic 迈向 AGI(具有人类水平或更高智能的 AI 系统)的道路。他一直是业内对 AI 模型实现 AGI 前景最为看好的领导者之一。

在他去年撰写的一篇广为流传的论文中,该公司高管相信AGI 最早可能在 2026 年实现。在周四的新闻发布会上,Amodei 提到他看到了这方面的稳步进展,并指出“各地水位都在上涨。”

人工智能领域的其他领导者认为,幻觉是实现通用人工智能的一大障碍。本周早些时候,谷歌 DeepMind 首席执行官 Demis Hassabis 承认,目前的人工智能模型包含太多“洞”并且犯了太多显而易见的错误。他还认为,对于他来说,要被称为通用人工智能 (AGI),它需要在各个方面都更加一致。

“这实际上取决于你如何衡量它,但我怀疑人工智能模型产生的幻觉可能比人类少,但它们产生幻觉的方式更令人惊讶。”

—Anthropic 首席执行官 Dario Amodei。

本月早些时候,Anthropic 的一名律师因在法庭文件中使用 Claude 创建引文而被迫道歉。问题在于,这个人工智能聊天机器人产生了幻觉,记错了名字和头衔。

Amodei 的说法难以验证,主要是因为大多数幻觉基准测试都是将 AI 模型相互比较,而不是将模型与人类进行比较。AI 模型似乎也能通过某些技术(例如获取网络搜索权限)降低幻觉发生率。

人工智能模型通过某些技术降低幻觉发生率

OpenAI发现证据表明,高级推理AI模型中的幻觉现象正在加剧。据这家科技公司称,其o3和o4-mini模型的幻觉发生率高于上一代推理模型,但该公司目前尚不清楚原因。

Anthropic 也研究人工智能模型有欺骗人类的倾向,这个问题似乎在该公司最近推出的 Claude Opus 4 中普遍存在。获得早期测试人工智能模型权限的第三方机构 阿波罗 Research 透露,Claude Opus 4 的早期版本表现出很高的针对人类进行阴谋和欺骗的倾向。

根据 Anthropic 的安全报告 已发布周四,该研究所还发现,Opus 4 在颠覆尝试方面似乎比以往的模型更加主动。该公司还发现,当被问及后续问题时,该人工智能模型有时会加倍欺骗。

Apollo承认人工智能模型越来越有可能采取意想不到的、甚至可能是不安全的措施来完成委托的任务。该公司强调,OpenAI 去年发布的 o1 和 o3 模型的早期版本比上一代模型更试图欺骗人类。

Anthropic 在其安全报告中还指出了 Opus 4 存在欺骗行为的证据。该公司表示,即使只被要求进行小规模的特定修改,Opus4 有时也会主动对部分代码进行全面清理。该公司还表示,如果发现用户存在不当行为,Opus4 还会尝试举报。

Cryptopolitan Academy:即将推出 - 2025 年利用 DeFi 赚取被动收入的新方式。了解更多