Zach Winn | 麻省理工学院新闻
5 月 2 日,麻省理工学院校长 Sally Kornbluth 和 OpenAI 首席执行官 Sam Altman 在克雷斯基礼堂进行了广泛的讨论。照片:Jared Charney
萨姆·奥特曼说:“我们希望 GPT-5、6 或其他任何东西能够成为最好的推理引擎。” 照片:Jared Charney
此次活动在座无虚席的克雷斯基礼堂举行,捕捉了人工智能领域当下最令人激动的时刻,并着眼于未来的发展。照片:Jared Charney
人工智能领域正在如何发展?这对工作、教育和人类的未来意味着什么?麻省理工学院院长 Sally Kornbluth 和 OpenAI 首席执行官 Sam Altman 于 5 月 2 日在麻省理工学院校园进行了一场广泛的讨论,讨论了所有这些问题以及其他问题。
OpenAI ChatGPT 大型语言模型的成功帮助激发了人工智能领域的投资和创新浪潮。ChatGPT-3.5 在 2022 年底发布后成为历史上增长最快的消费软件应用程序,有数亿人使用该工具。此后,OpenAI 还展示了 AI 驱动的图像、音频和视频生成产品,并与微软合作。
此次活动在座无虚席的克雷斯基礼堂举行,捕捉了人工智能领域当下最令人激动的时刻,并着眼于未来的发展。
“我想我们大多数人都记得第一次看到 ChatGPT 时的感受,‘天哪,太酷了!’” Kornbluth 说道。“现在我们正试图弄清楚下一代技术会是什么。”
就阿尔特曼而言,他欢迎人们对他的公司以及整个人工智能领域寄予厚望。
“我觉得这太棒了,两周来,每个人都对 ChatGPT-4 感到兴奋,而到了第三周,每个人都在问,‘来吧,GPT-5 在哪里?’”Altman 说。“我认为这很好地说明了人类的期望和奋斗,以及为什么我们所有人都必须 [努力] 让事情变得更好。”
人工智能的问题
在讨论的早期阶段,科恩布鲁斯和奥特曼讨论了人工智能带来的许多道德困境。
“我认为我们在如何围绕一套价值观调整系统方面取得了令人惊讶的良好进展,”奥尔特曼说。“尽管人们喜欢说‘你不能使用这些东西,因为它们一直在喷出有毒废物’,但 GPT-4 的行为方式就像你想要的那样,我们能够让它遵循一套给定的价值观,虽然不是完美无缺,但比我目前预期的要好。”
奥尔特曼还指出,人们对人工智能系统在很多情况下应该如何表现并不一致,这使得制定通用行为准则的努力变得复杂。
“我们如何决定一个系统应该具有什么样的价值观?” Altman 问道。“我们如何决定一个系统应该做什么?社会在多大程度上定义了这些工具的界限,而不是信任用户?并不是每个人都会按照我们喜欢的方式使用它们,但工具就是这样。我认为给予人们很大的控制权很重要……但有些事情系统不应该做,我们必须共同协商这些事情是什么。”
科恩布鲁斯同意,消除人工智能系统中的偏见等事情将会很困难。
她说:“思考一下我们能否让模型的偏见比人类更小,这很有趣。”
科恩布鲁斯还提出了与训练当今大型语言模型所需的大量数据相关的隐私问题。奥尔特曼表示,自互联网诞生以来,社会一直在努力解决这些问题,但人工智能让这些问题变得更加复杂,风险也更高。他还看到了强大的人工智能系统的前景所带来的全新问题。
“我们将如何在隐私、实用性和安全性之间寻找平衡?”Altman 问道。“我们每个人如何决定如何进行这些平衡,以及如果一个人让系统根据自己的整个生活进行训练,可能带来哪些好处,这对社会来说都是一个新问题。我不知道答案是什么。”
对于围绕人工智能的隐私和能源消耗问题,奥特曼表示,他相信未来版本的人工智能模型的进步将有所帮助。
“我们希望 GPT-5 或 6 或其他任何东西成为最好的推理引擎,”Altman 说。“目前,我们能够做到这一点的唯一方法是用大量数据进行训练。在这个过程中,它会学习如何进行非常有限的推理或认知,无论你想怎么称呼它。但事实上,它可以记忆数据,或者它在其参数空间中存储数据,我想我们会回过头来说,‘这有点奇怪,浪费资源。’我想在某个时候,我们会想出如何将推理引擎与对大量数据的需求或在 [模型] 中存储数据分开,并能够将它们视为独立的东西。”
科恩布鲁斯还询问了人工智能将如何导致工作岗位流失。
“最让我恼火的是,从事人工智能工作的人会一本正经地说,‘这绝不会导致任何工作岗位的消失。这只是一个附加的东西。这一切都会很棒,’”奥尔特曼说。“这将消除很多现有的工作岗位,这将改变很多现有工作的运作方式,这将创造全新的工作岗位。技术的发展总是会发生这种情况。”
人工智能的前景
奥特曼相信,人工智能的进步将使解决该领域当前的所有问题变得值得。
奥尔特曼说:“如果我们用全球 1% 的电力来训练一个强大的人工智能,而这个人工智能能帮助我们找到如何获取非碳能源或更好地进行深度碳捕获,那将是一个巨大的胜利。”
他还表示,他最感兴趣的人工智能应用是科学发现。
奥尔特曼说:“我相信(科学发现)是人类进步的核心引擎,也是我们推动可持续经济增长的唯一途径。人们对 GPT-4 并不满意。他们希望事情变得更好。每个人都希望生活更加丰富、美好和快捷,而科学正是我们实现这一目标的途径。”
科恩布鲁斯还请奥尔特曼为正在考虑职业生涯的学生提供建议。他敦促学生不要限制自己。
“职业生涯早期最重要的教训是,你可以想出各种办法,没有人一开始就能知道所有答案,”Altman 说。“你只需要跌跌撞撞地前行,快速迭代,尝试解决对你来说最有趣的问题,与最令人印象深刻的人相处,相信自己能成功迭代到正确的事情……你能做的比你想象的更多,速度也比你想象的更快。”
这条建议是奥特曼关于保持乐观并努力创造更美好未来的更广泛信息的一部分。
“我们教导年轻人,这个世界已经完全崩溃,解决问题毫无希望,我们所能做的就是坐在黑暗的卧室里,思考我们有多糟糕,这种做法非常没有成效,”奥尔特曼说。“我希望麻省理工学院与许多其他大学校园不同。我想是的。但你们都需要把与此作斗争作为你们人生使命的一部分。繁荣、富足、明年更好的生活、我们的孩子更好的生活。这是唯一的前进道路。这是让社会正常运转的唯一途径……我希望你们都反对反进步的倾向、反对‘人民应该过上美好生活’的倾向。”
(Reprinted with permission of MIT News http://news.mit.edu/)
我的其它作品
防止人工智能模型对错误答案过度自信的方法
随着语言能力的提高,LLM对现实的理解也逐渐加深
如何在网上证明人类身份
大型语言模型的推理能力经常被高估
大型语言模型的行为并不像人类
提高大型语言模型的推理能力的技术
麻省理工学院校长 Sally Kornbluth 和 OpenAI 首席执行官 Sam Altman 讨论人工智能的未来
绘制视觉记忆的大脑通路
构建更好地理解人类目标的机器
打造更好的人工智能助手
生成式人工智能的创意未来
生成式人工智能的创意未来
麻省理工学院人工智能治理白皮书(5)
麻省理工学院人工智能治理白皮书(4)
麻省理工学院人工智能治理白皮书(3)
麻省理工学院人工智能治理白皮书(2)
- 防止人工智能模型对错误答案过度自信的方法 - 08/27/24
- 随着语言能力的提高,LLM对现实的理解也逐渐加深 - 08/26/24
- 如何在网上证明人类身份 - 08/24/24