大型语言模型的行为并不像人类

大型语言模型的行为并不像人类,尽管我们可能期望它们

一项新的研究表明,人们对法学硕士 (LLM) 的信念对模型的表现起着重要作用,并且对于模型如何部署也很重要。

Adam Zewe | 麻省理工学院新闻

2024 年 7 月 23 日

当LLM与一个人的信念不一致时,即使是极其强大的模型在部署到现实世界时也可能会意外失败。

大型语言模型 (LLM) 如此强大的原因之一是它们可以应用于各种任务。可以帮助研究生起草电子邮件的机器学习模型也可以帮助临床医生诊断癌症。

然而,这些模型的广泛适用性也使得系统地评估它们具有挑战性。创建一个基准数据集来测试模型在每种类型的问题上的表现是不可能的。

在一篇新论文中,麻省理工学院的研究人员采用了不同的方法。他们认为,由于人类决定何时部署大型语言模型,因此评估模型需要了解人们如何形成对其能力的信念。

例如,研究生必须决定该模型是否有助于起草特定的电子邮件,而临床医生必须确定哪些案例最适合参考该模型。

基于这个想法,研究人员创建了一个框架来评估LLM,该框架基于法学硕士与人类对其如何执行某项任务的信念的一致性。

他们引入了人类泛化功能——一种模型,用于描述人们在与 LLM 互动后如何更新对 LLM 能力的信念。然后,他们评估 LLM 与这种人类泛化功能的匹配程度。

他们的结果表明,当模型与人类的泛化功能不一致时,用户可能会对模型的部署位置过于自信或不够自信,这可能会导致模型意外失败。此外,由于这种不一致,在高风险情况下,更强大的模型往往比较小的模型表现更差。

“这些工具令人兴奋,因为它们是通用的,但正因为它们是通用的,它们将与人合作,所以我们必须把人考虑进去,”研究报告的共同作者、经济学助理教授兼信息与决策系统实验室 (LIDS) 首席研究员 Ashesh Rambachan 说。

与 Rambachan 一起参与撰写该论文的还有哈佛大学博士后 Keyon Vafa 和麻省理工学院电气工程与计算机科学系和经济学系教授、LIDS 成员 Sendhil Mullainathan。这项研究将在国际机器学习会议上发表。

人类概括

当我们与他人互动时,我们会形成关于他们知道和不知道的事情的信念。例如,如果你的朋友喜欢纠正别人的语法,你可能会概括并认为他们也会擅长造句,即使你从未问过他们关于造句的问题。

“语言模型通常看起来非常人性化。我们想说明这种人类概括的力量也存在于人们如何形成对语言模型的信念中,”Rambachan 说。

作为起点,研究人员正式定义了人类的泛化功能,其中包括提出问题、观察一个人或法学硕士如何反应,然后推断该人或模型将如何回答相关问题。

如果有人发现 LLM 可以正确回答矩阵求逆问题,他们可能也会认为它也能回答简单的算术问题。与此功能不一致的模型(在人类期望它正确回答的问题上表现不佳的模型)在部署时可能会失败。

有了这个正式定义,研究人员设计了一项调查来衡量人们在与LLM和其他人互动时如何概括。

他们向调查参与者展示了某个人或LLM答对或答错的问题,然后询问他们是否认为该人或LLM会正确回答相关问题。通过调查,他们生成了一个包含近 19,000 个示例的数据集,展示了人类如何概括LLM在 79 项不同任务中的表现。

测量错位

他们发现,当被问及答对一道题的人是否会正确回答相关问题时,参与者的表现相当好,但他们对LLM的表现的概括却差得多。

“人类的泛化能力被应用于语言模型,但这会失效,因为这些语言模型实际上并不像人类那样表现出专业知识模式,”Rambachan 说。

当LLM答错问题时,人们更有可能改变对LLM的看法,而不是答对问题。他们还倾向于认为LLM在简单问题上的表现与其在更复杂问题上的表现几乎没有关系。

在人们更加重视错误答案的情况下,简单的模型比 GPT-4 等大型模型表现更好。

他说:“不断改进的语言模型几乎可以欺骗人们,让他们认为他们会在相关问题上表现良好,但事实并非如此。”

人类对 LLM 的概括能力较差的一个可能解释是,他们对于 LLM 的了解较少,与其他人相比,人们与 LLM 互动的经验要少得多。

他说:“展望未来,我们有可能通过与语言模型进行更多互动而变得更好。”

为此,研究人员希望开展更多研究,了解人们在与模型互动时对LLM的信念如何随时间演变。他们还想探索如何将人类的概括能力融入LLM的发展中。

他说道:“当我们首先训练这些算法,或者尝试用人类的反馈来更新它们时,我们需要在思考如何衡量性能时考虑人类的泛化功能。”

同时,研究人员希望他们的数据集可以作为基准,比较 LLM 与人类泛化功能相关的表现,这有助于提高在现实世界中部署的模型的性能。

“对我来说,这篇论文的贡献有两方面。第一点是实用的:这篇论文揭示了将 LLM 部署到一般消费者使用中的关键问题。如果人们没有正确理解 LLM 何时准确、何时会失败,那么他们就更有可能发现错误,并可能不愿意继续使用。这凸显了将模型与人们对泛化的理解相结合的问题,”芝加哥大学布斯商学院行为科学与经济学教授 Alex Imas 表示,他没有参与这项研究。“第二个贡献更为根本:缺乏对预期问题和领域的泛化有助于更好地了解模型在‘正确’解决问题时所做的事情。它提供了一个测试,可以测试 LLM 是否‘理解’它们正在解决的问题。”

这项研究的部分资金来自哈佛大学数据科学计划和芝加哥大学布斯商学院应用人工智能中心。

(Reprinted with permission of MIT News http://news.mit.edu/)


我的其它作品

1 2
Total Page Visits: 74 - Today Page Visits: 1

发表评论

您的电子邮箱地址不会被公开。 必填项已用 * 标注