要打造更好的人工智能助手,首先要模拟人类的非理性行为
一种新技术可用于预测在朝着未知目标努力时行为不佳的人类或人工智能代理的行为。
亚当·泽威 | 麻省理工学院新闻
麻省理工学院和其他研究人员开发了一个框架,根据人类或人工智能代理的计算约束,对其不合理或次优行为进行建模。他们的技术可以帮助预测代理的未来行动,例如在国际象棋比赛中。
要构建能够与人类有效协作的人工智能系统,首先要有一个良好的人类行为模型。但人类在做决策时往往表现得不太理想。
这种非理性尤其难以建模,通常归结为计算限制。人类不可能花费数十年时间思考单一问题的理想解决方案。
麻省理工学院和华盛顿大学的研究人员开发了一种方法来模拟代理(无论是人类还是机器)的行为,该方法可以解决可能妨碍代理解决问题能力的未知计算限制。
他们的模型只需观察代理之前的一些行为痕迹,就能自动推断出代理的计算约束。结果,即代理所谓的“推理预算”,可用于预测代理的未来行为。
在一篇新论文中,研究人员展示了他们的方法如何根据先前的路线推断某人的导航目标,并预测棋手中的后续动作。他们的技术与另一种流行的建模此类决策的方法相当,甚至优于后者。
最终,这项研究可以帮助科学家教会人工智能系统如何表现人类的行为,从而使这些系统能够更好地响应人类合作者。电气工程和计算机科学 (EECS) 研究生、该技术论文的主要作者 Athul Paul Jacob 表示,能够理解人类的行为,然后从该行为中推断出他们的目标,可以使人工智能助手更加有用。
“如果我们知道人类即将犯错,并且了解了他们之前的行为,那么人工智能代理可以介入并提供更好的解决方法。或者代理可以适应其人类合作者的弱点。能够模拟人类行为是朝着构建能够真正帮助人类的人工智能代理迈出的重要一步,”他说。
Jacob 与华盛顿大学助理教授 Abhishek Gupta 以及 EECS 副教授、计算机科学与人工智能实验室 (CSAIL) 成员 Jacob Andreas 共同撰写了这篇论文。这项研究将在国际学习表征会议上发表。
建模行为
几十年来,研究人员一直在构建人类行为的计算模型。许多先前的方法试图通过向模型中添加噪声来解释次优决策。模型可能让代理在 95% 的时间内做出正确选择,而不是总是选择正确的选项。
然而,这些方法无法捕捉到人类并不总是以同样的方式表现出次优行为的事实。
麻省理工学院的其他研究人员也研究了在次优决策情况下规划和推断目标的更有效的方法。
为了建立模型,雅各布和他的同事从先前对国际象棋选手的研究中汲取了灵感。他们注意到,在进行简单动作时,棋手在行动前思考的时间较少,而在具有挑战性的比赛中,实力较强的棋手往往比实力较弱的棋手花费更多时间进行计划。
“最终我们发现,计划的深度,或者说一个人思考问题的时间长短,可以很好地反映人类的行为方式,”雅各布说。
他们建立了一个框架,可以根据先前的行动推断出代理的计划深度,并使用该信息来模拟代理的决策过程。
他们方法的第一步是运行算法一段时间来解决正在研究的问题。例如,如果他们正在研究一场国际象棋比赛,他们可能会让国际象棋比赛算法运行一定数量的步骤。最后,研究人员可以看到算法在每一步做出的决策。
他们的模型将这些决策与解决同一问题的代理的行为进行比较。它将代理的决策与算法的决策进行对比,并确定代理停止规划的步骤。
由此,模型可以确定代理的推理预算,或者代理将为这个问题规划多长时间。它可以使用推理预算来预测代理在解决类似问题时会如何反应。
可解释的解决方案
这种方法非常有效,因为研究人员无需做任何额外工作就可以访问问题解决算法做出的全套决策。该框架还可以应用于任何可以用特定算法解决的问题。
“对我来说,最引人注目的是,这种推理预算非常具有可解释性。这意味着更棘手的问题需要更多的规划,或者成为强大的玩家意味着需要更长时间的规划。当我们第一次着手做这件事时,我们并不认为我们的算法能够自然地掌握这些行为,”雅各布说。
研究人员在三个不同的建模任务中测试了他们的方法:根据之前的路线推断导航目标、根据言语暗示猜测某人的交流意图、以及预测人与人国际象棋比赛中的后续动作。
他们的方法在每次实验中都与流行的替代方案相当甚至优于后者。此外,研究人员还发现,他们的人类行为模型与棋手技能(在国际象棋比赛中)和任务难度的衡量标准非常吻合。
展望未来,研究人员希望使用这种方法来模拟其他领域的规划过程,例如强化学习(一种常用于机器人技术的反复试验方法)。从长远来看,他们打算在此基础上继续努力,实现开发更有效的人工智能协作者的更大目标。
此项工作部分得到了麻省理工学院施瓦茨曼计算机学院增强和生产力人工智能项目和国家科学基金会的支持。
(Reprinted with permission of MIT News http://news.mit.edu/)
我的其它作品
防止人工智能模型对错误答案过度自信的方法
随着语言能力的提高,LLM对现实的理解也逐渐加深
如何在网上证明人类身份
大型语言模型的推理能力经常被高估
大型语言模型的行为并不像人类
提高大型语言模型的推理能力的技术
麻省理工学院校长 Sally Kornbluth 和 OpenAI 首席执行官 Sam Altman 讨论人工智能的未来
绘制视觉记忆的大脑通路
构建更好地理解人类目标的机器
打造更好的人工智能助手
生成式人工智能的创意未来
生成式人工智能的创意未来
麻省理工学院人工智能治理白皮书(5)
麻省理工学院人工智能治理白皮书(4)
麻省理工学院人工智能治理白皮书(3)
麻省理工学院人工智能治理白皮书(2)
- 防止人工智能模型对错误答案过度自信的方法 - 08/27/24
- 随着语言能力的提高,LLM对现实的理解也逐渐加深 - 08/26/24
- 如何在网上证明人类身份 - 08/24/24