麻省理工学院发布人工智能治理白皮书
该系列旨在帮助政策制定者更好地监督社会中的人工智能
Peter Dizikes| 麻省理工学院新闻
2023 年 12 月 11 日
麻省理工学院的一个特设委员会发布了一套关于人工智能治理的新政策文件。
由麻省理工学院领导和学者组成的委员会为美国政策制定者提供资源,发布了一套政策简报,概述了人工智能治理。该方法包括扩展当前的监管和责任方法,以寻求监督人工智能的实用方法。
这些论文的目的是帮助增强美国在人工智能领域的广泛领导地位,同时限制新技术可能造成的危害,并鼓励探索人工智能部署如何造福社会。
主要政策文件《美国人工智能治理框架:创建安全和繁荣的人工智能部门》表明,人工智能工具通常可以由已经监管相关领域的现有美国政府实体进行监管。这些建议还强调了确定人工智能工具用途的重要性,这将使法规能够适应这些应用。
麻省理工学院施瓦茨曼计算学院院长 Dan Huttenlocher 表示:“作为一个国家,我们已经在监管许多相对高风险的事物并提供治理。”他帮助指导了该项目,该项目源于一则广告的工作麻省理工学院特设委员会。 “我们并不是说这已经足够了,但让我们从人类活动已经受到监管的事情开始,随着时间的推移,社会已经认为这些事情是高风险的。以这种方式看待人工智能才是实用的方法。”
麻省理工学院施瓦茨曼计算学院副院长兼麻省理工学院电气工程与计算机科学系 (EECS) 系主任 Asu Ozdaglar 表示:“我们构建的框架提供了思考这些问题的具体方法。”帮助监督这项工作。
该项目包括多份额外的政策文件,是在去年人们对人工智能的兴趣日益浓厚以及该领域的大量新行业投资的背景下推出的。欧盟目前正在尝试使用自己的方法最终确定人工智能法规,该方法将广泛的风险级别分配给某些类型的应用程序。在此过程中,语言模型等通用人工智能技术成为新的症结所在。任何治理工作都面临着监管通用和特定人工智能工具的挑战,以及一系列潜在问题,包括错误信息、深度伪造、监视等。
麻省理工学院华盛顿办公室主任戴维·戈德斯顿 (David Goldston) 表示:“我们认为,麻省理工学院参与其中非常重要,因为我们拥有专业知识。” “麻省理工学院是人工智能研究的领导者之一,也是人工智能最早起步的地方之一。由于我们所创造的技术引发了这些重要问题,因此我们感到有义务帮助解决这些问题。”
目的、意图和护栏
主要政策简报概述了如何在可能的情况下利用现有监管机构和法律责任框架将当前政策扩展到人工智能。例如,美国在医学领域有严格的许可法。冒充医生已经是违法的;如果人工智能以医生的名义用于开药或进行诊断,那么很明显,这将违反法律,就像严格意义上的人类渎职行为一样。正如政策简报指出的那样,这不仅仅是一种理论方法;而且是一种方法。部署人工智能系统的自动驾驶汽车与其他车辆一样受到监管。
政策简报强调,制定这些监管和责任制度的一个重要步骤是让人工智能提供商提前定义人工智能应用的目的和意图。在此基础上检查新技术将明确哪些现有法规和监管机构与任何特定的人工智能工具密切相关。
然而,人工智能系统也可能存在于多个层面,技术专家称之为共同提供特定服务的系统“堆栈”。例如,通用语言模型可能是特定新工具的基础。简要说明,一般来说,特定服务的提供商可能对其问题负有主要责任。然而,正如第一份简报所述,“当堆栈的组件系统未按承诺运行时,该组件的提供商分担责任可能是合理的”。因此,如果通用工具的开发者的技术涉及特定问题,他们也应该承担责任。
“这使得治理变得更具挑战性,但基础模型不应完全被排除在外,”奥兹达格拉尔说。 “在很多情况下,模型来自提供商,您可以在上面开发应用程序,但它们是堆栈的一部分。那里有什么责任?如果系统不在堆栈的顶部,并不意味着不应该考虑它们。”
让人工智能提供商明确定义人工智能工具的目的和意图,并要求防止滥用,也可以帮助确定公司或最终用户对特定问题负责的程度。政策简报指出,良好的监管制度应该能够识别所谓的“烤面包机中的叉子”情况——最终用户可以合理地承担责任,了解滥用工具可能产生的问题。
反应灵敏且灵活
虽然政策框架涉及现有机构,但也增加了一些新的监督能力。一方面,政策简报呼吁在新人工智能工具的审计方面取得进展,这些工具可以沿着多种路径向前发展,无论是政府发起的、用户驱动的还是源自法律责任程序的。该文件指出,需要制定公共审计标准,无论是由类似上市公司会计监督委员会 (PCAOB) 的非营利实体制定,还是通过类似于美国国家标准与技术研究所 (NIST) 的联邦实体制定)。
该文件确实呼吁考虑按照政府设立的金融业监管局 FINRA 的职能建立一个新的、政府批准的“自律组织”(SRO)机构。这样一个专注于人工智能的机构可以积累特定领域的知识,使其在参与快速变化的人工智能行业时能够做出反应并保持灵活性。
“人类和机器的交互这些事情非常复杂,所以你需要响应能力,”Huttenlocher 说,他也是 EECS 计算机科学、人工智能和决策领域的 Henry Ellis Warren 教授。 “我们认为,如果政府考虑设立新机构,就应该真正考虑这种 SRO 结构。他们不会移交商店的钥匙,因为这仍然是政府特许和监督的。”
正如政策文件所明确指出的那样,人工智能领域还需要解决其他一些特定的法律问题。与人工智能相关的版权和其他知识产权问题通常已经成为诉讼的主题。
还有奥兹达格拉尔所说的“人类+”法律问题,即人工智能的能力超出了人类的能力。其中包括大规模监控工具之类的东西,委员会认识到它们可能需要特殊的法律考虑。
奥兹达格拉尔说:“人工智能能够实现人类无法做到的事情,例如大规模监视或假新闻,这可能需要超出适用于人类的范围之外的特殊考虑。” “但我们的出发点仍然能让你思考风险,以及风险如何因工具而被放大。”
这套政策文件详细解决了许多监管问题。例如,Chloe Wittenberg、Ziv Epstein、Adam J. Berinsky 和 David G. Rand 撰写的一篇论文《标记人工智能生成的内容:承诺、危险和未来方向》建立在先前有关媒体和受众参与的研究实验的基础上评估表示人工智能生成的材料的具体方法。另一篇论文《大型语言模型》由 Yoon Kim、Jacob Andreas 和 Dylan Hadfield-Menell 撰写,研究了基于通用语言的人工智能创新。
“正确执行此操作的一部分”
正如政策简报所明确的那样,政府有效参与这一主题的另一个要素是鼓励更多关于如何使人工智能造福社会的研究。
例如,政策文件“我们可以拥有一个有利于工人的人工智能吗?选择一条为思想服务的机器之路”,作者是 Daron Acemoglu、David Autor 和 Simon Johnson,探讨了人工智能可能增强和帮助工人的可能性,而不是被部署来取代他们——这种情况将提供更好的长期效果经济增长分布于整个社会。
特设委员会从一开始就希望从不同学科的角度进行一系列分析,以解决人工智能监管问题——扩大政策制定的视角,而不是将其缩小到少数几个视角。技术问题。
“我们确实认为学术机构在技术专业知识以及技术与社会的相互作用方面都可以发挥重要作用,”胡滕洛彻说。 “它反映了政策制定者共同考虑社会系统和技术对于良好治理的重要性。这就是国家所需要的。”
事实上,戈德斯顿指出,该委员会正试图通过努力倡导在技术进步的同时进行适当的监管,来弥合对人工智能感到兴奋和担忧的人之间的差距。
正如戈德斯顿所说,发布这些论文的委员会“不是一个反技术或试图扼杀人工智能的组织。但尽管如此,这个组织仍然认为人工智能需要治理和监督。这是正确执行此操作的一部分。这些人了解这项技术,他们说人工智能需要监督。”
Huttenlocher 补充道:“为国家和世界服务是麻省理工学院几十年来一直认真对待的事情。对此来说,这是一个非常重要的时刻。”
除了 Huttenlocher、Ozdaglar 和 Goldston 之外,特设委员会成员还有: Daron Acemoglu,学院教授,艺术、人文和社会科学学院伊丽莎白和詹姆斯基利安经济学教授; Jacob Andreas,EECS 副教授;戴维·奥托 (David Autor),福特经济学教授; Adam Berinsky,三井政治学教授; Cynthia Breazeal,数字学习院长兼媒体艺术与科学教授; Dylan Hadfield-Menell,Tennenbaum 人工智能与决策职业发展助理教授;西蒙·约翰逊 (Simon Johnson),麻省理工学院斯隆管理学院库尔茨创业学教授; Yoon Kim,EECS NBX 职业发展助理教授; Sendhil Mullainathan,芝加哥大学布斯商学院罗马家族大学计算与行为科学教授; Manish Raghavan,麻省理工斯隆管理学院信息技术助理教授;大卫·兰德 (David Rand),麻省理工学院斯隆管理学院欧文·H·谢尔 (Erwin H. Schell) 教授、脑与认知科学教授; Antonio Torralba,Delta Electronics 电气工程和计算机科学教授;路易斯·维德加雷 (Luis Videgaray) 是麻省理工斯隆管理学院的高级讲师。
(Reprinted with permission of MIT News http://news.mit.edu/)
我的其它作品
防止人工智能模型对错误答案过度自信的方法
随着语言能力的提高,LLM对现实的理解也逐渐加深
如何在网上证明人类身份
大型语言模型的推理能力经常被高估
大型语言模型的行为并不像人类
提高大型语言模型的推理能力的技术
麻省理工学院校长 Sally Kornbluth 和 OpenAI 首席执行官 Sam Altman 讨论人工智能的未来
绘制视觉记忆的大脑通路
构建更好地理解人类目标的机器
打造更好的人工智能助手
生成式人工智能的创意未来
生成式人工智能的创意未来
麻省理工学院人工智能治理白皮书(5)
麻省理工学院人工智能治理白皮书(4)
麻省理工学院人工智能治理白皮书(3)
麻省理工学院人工智能治理白皮书(2)
- 防止人工智能模型对错误答案过度自信的方法 - 08/27/24
- 随着语言能力的提高,LLM对现实的理解也逐渐加深 - 08/26/24
- 如何在网上证明人类身份 - 08/24/24