AI21 Labs首次为GPT聊天机器人推出质疑功能

行业热点2年前 (2023)更新 qkledit
15,376 0

Contextual Answers 是为企业设计的,但可能对生成人工智能领域产生深远的影响。

AI21 Labs首次为GPT聊天机器人推出质疑功能

AI21 Labs 最近推出了Contextual Answers,这是一个适用于大型语言模型 (LLM) 的问答引擎。 

当连接到大型语言模型时,新引擎允许用户上传自己的数据库,以便将模型的输出限制为特定信息。

ChaPT 和类似人工智能 (AI) 产品的推出已经改变了人工智能行业的范式,但缺乏可信度使得许多企业的采用前景困难。

根据研究,员工近一半的工作日时间都花在搜索信息上。这为能够执行搜索功能的聊天机器人提供了巨大的机会;然而,大多数聊天机器人并不适合企业。

AI21 开发了 Contextual Answers,通过让用户能够管理自己的数据和文档库,来解决通用聊天机器人与企业级问答服务之间的差距。

根据 AI21 的博客文章,Contextual Answers允许用户在不重新训练模型的情况下引导 AI 答案,从而减轻采用的一些最大障碍:

“大多数企业都在努力采用 [AI],理由是成本、复杂性以及组织数据中模型缺乏专业性,从而导致响应不正确、‘幻觉’或不适合环境。”

与开发有用的大型语言模型(例如 OpenAI 的 ChaPT 或 Google 的 Bard)相关的突出挑战之一是教会他们表达缺乏信心。

通常,当用户查询聊天机器人时,即使其数据集中没有足够的信息来提供事实信息,它也会输出响应。在这些情况下,大型语言模型通常会在没有任何事实依据的情况下编造信息,而不是输出诸如我不知道之类的低置信度答案。

研究人员将这些输出称为幻觉,因为机器生成的信息似乎不存在于其数据集中,就像人类看到不存在的东西一样。

根据 A121 的说法,上下文答案应该通过仅在与用户提供的文档相关时输出信息或根本不输出任何信息来完全缓解幻觉问题。

在金融和法律等准确性比自动化更重要的领域,生成式预训练变压器 (GPT) 系统的出现产生了不同的结果。

专家继续建议金融界在使用 GPT 系统时保持谨慎,因为即使连接到互联网并能够链接到来源,它们也容易产生幻觉或混淆信息。在法律领域,一名律师因在案件中依赖 ChaPT 生成的输出而面临罚款和制裁。

通过在人工智能系统中预先加载相关数据并在系统产生非事实信息之前进行干预,AI21 似乎已经证明了对幻觉问题的缓解。

这可能会导致大规模采用,特别是在金融科技领域,传统金融机构一直不愿采用 GPT 技术,而加密货币和区块链社区在充分利用聊天机器人方面取得了不同程度的成功。

© 版权声明

相关文章