ChatGPT:特征分析与伦理考察

杨庆峰

黑格尔在《伦理体系》中提到水泡爆裂观念,本意是说事物毁灭的过程就像一个不断膨胀的水泡爆裂为无数的细小水滴。如果采用这种观念看人工智能技术的发展,会发现比较吻合。人工智能的水泡在1956年爆裂之后变成很多细小水珠,飞溅四处。棋类方面有AlphaGo等;科学研究方面有AlphaFold等;语言对话方面有LaMDA、ChatGPT等;图像生成方面有Discord、Midjourney等。这些技术逐渐汇聚成一股力量,将人类卷入了一个智能生成的时代。

ChatGPT:生成与嵌入

生成构成了ChatGPT的第一个特征,生成意味着出新,然而这一点受到质疑。乔姆斯基认为,ChatGPT是从海量数据中发现规律,然后依据规则将数据进行连接,形成类似人写的内容,并认为ChatGPT是剽窃工具。这个看法有些不准确。在ChatGPT的生成过程中,有新的东西产生。然而,这并不是存在意义上的新,也就是说它没有产生新的对象,而是通过注意力机制从旧的东西中发现未曾见过的对象。在这个意义上,它属于注意意义上的新。2017年,一篇题为《注意力就是你全部需要的》(Attention is All You Need)的论文在注意力概念的基础上提出了transformer,后来ChatGPT使用了这种算法。这项技术使用了自注意力(self-attention)、多头注意力(multi-head-attention)等机制,从而确保了新内容的出现。并且,ChatGPT还有可能借助推理生成文本,所产生的结果并非剽窃所能概括的。嵌入则构成了ChatGPT的第二个特征,我们可以把嵌入过程看作对某种形式的内容充实。智能技术发展脱离了传统技术发展的轨迹。传统技术往往作为单一的技术物品,其发展呈现出线性进化模式。但智能技术的发展,逐渐表现出可嵌入性。比如,智能手机作为一个平台,很多App可以嵌入其中。ChatGPT可以嵌入搜索引擎,还可以嵌入各种应用程序(如各种文字处理软件)。这种嵌入的发生能够使智能体的能力明显提升。这是ChatGPT增强效应的基础。根据Statista的统计,截至2023年1月,OpenAI已经与科技、教育、商业、制造等行业紧密结合,技术嵌入趋势日渐明显。嵌入的程度影响机器人的友好程度。目前,ChatGPT还无法作为声音程序嵌入机器人中,在我们的接触中,它更像是一个笔友。而未来的陪伴机器人、交谈机器人,更为重要的或许是声音交流,人类倾诉,机器倾听并作出反应。

ChatGPT的黑箱状态

对于ChatGPT来说,透明性问题是一个很大的问题。从技术角度看,不透明源于技术的不可解释问题。因此,技术专家很重视ChatGPT的可解释性问题,他们也很头疼神经网络的黑箱效应。从运作方式来说,ChatGPT本身的运作难以解释。罗素(Stuart Russell)明确指出,我们不清楚ChatGPT的工作原理和机制。而且,他也不认为大型语言模型让我们距离真正的智能更近,算法的可解释性就构成了瓶颈问题。为解决这一问题,他们通过一些诸如逆向工程的技术方法,从而可以观察到神经网络的作用机理而触摸到底层逻辑;并通过机械可解释方法,以其可视化、可交互的形式来显示其成果。他们借助这些方法,打开了神经网络的黑箱。然而,这种方法获得的可解释性只对专业技术人员有效。从哲学角度看,黑箱的产生和术语有关。难以理解、晦涩的术语会影响理论透明性的获得。比如,ChatGPT算法所依赖的理论概念就有待澄清。在《注意力就是你全部需要的》一文中,注意力机制是一种普遍的方法,包含了自注意力和多头注意力。这些概念如果缺乏有效澄清,就难以为外人所理解,黑箱就依然无法打开。因此,一个最为基本的问题是澄清注意本身。然而,这一任务还远没有完成。透明性不足导致的伦理问题会带来信任危机。如果ChatGPT的原理难以弄清楚,它的输出结果就会成为一个问题。最终,这种缺陷会影响我们对于技术的信任度,甚至对技术丧失信心。

ChatGPT的增强效应

ChatGPT是一种智能增强技术,它能做的事情是智能生成各式文本。比如,生成数据伦理的大纲,生成某个前沿问题的研究现状。这明显增强了搜索能力,使人们能够在短时间内获得较高效率。这种增强的基础是生成性和嵌入性。从生成性来看,它通过注意的转换实现了全新对象的发现;从嵌入性来说,它极大提升了原智能体的功能实现。作为智能技术,ChatGPT能够明显提升人类的工作效率。这就带出了一个基本问题:人类与智能体的关系问题。我们将智能区分为实体性智能与关系性智能。实体性智能,即实体形态存在者具有的智能,比如人类智能、动物智能以及实体机器人的智能;关系性智能主要用来描述人类与智能体的关系,增强智能则是关系性智能的主要形式。对增强智能需要进行提纯处理,通过哲学处理使其能够展现出人与技术的一般意义,并通过道德化处理使其具有规范意义。不过,能够起到增强效果的ChatGPT,会产生一些伦理问题。一是智能鸿沟问题。这一技术目前是受到限制的,存在一定的技术门槛,会导致使用者群体中差距的拉大,也就是由智能技术导致的鸿沟。这是从获取技术方面产生的差距与鸿沟。二是社会公平问题。除非这项技术能够像手机一样普及,否则这种公平问题会非常显著地暴露出来。能够利用ChatGPT工作的人,很可能效率显著提升;而无法使用这项技术的人,效率则会保持在原有水平。三是依赖问题。使用者在使用过程中会感受到这项技术的便利。比如,能够迅速生成课程大纲、撰写文献综述、搜索关键信息等。这会让使用者逐渐对这一技术产生依赖。但这种依赖会产生较为严重的后果。以搜索文献为例,借助这项技术能够迅速找到相关文献,并且可以撰写出一个像模像样的综述文本。尽管借助ChatGPT可以快速生成一份文献综述,但却失去了相关能力的学术训练,那么结果可能是研究者和学生丧失了这方面的能力。

ChatGPT与人类的关系

面对ChatGPT迅猛的攻势,学术界普遍采取防守姿态,尤其是不少大学相继禁止这一技术在作业和论文写作中的使用。然而,禁止并不是最优的处理方式。技术似水,可以通过多种方式渗透进来,所以相对来说,理性引导更为妥当。要理性引导,则需要考虑智能体与人类的关系。我更愿意把二者的关系模式比喻为“画龙点睛”。以文本大纲生成为例,ChatGPT能够围绕数据处理的收集、存储、使用等环节中的相关伦理问题,生成一份基于数据处理环节的数据伦理大纲。从狭义角度来看,这份大纲是恰当的,能够反映数据处理环节伦理问题的一些方面。然而从广义角度看,这份大纲则过于狭窄,尤其是仅从数据处理本身来理解数据,并没有考虑到其他方面,比如数据化、数据与生活方式等重要问题。而我们能做或要做的,是对生成文本进行“画龙点睛”的处理,通过调整使生成文本“活”起来。这样一来,智能生成文本的地位也开始明确:在生成中起到关键作用的是人类的点睛之笔,缺乏这一笔,智能生成的文本只是没有灵魂的文本。若不这样,则难以保证人类的意义和价值,相应的伦理问题也会产生。(作者系中国科协—复旦大学科技伦理与人类未来研究院研究员)

来源:中国社会科学报


1 2 3 4 5 6 7 8 9 10
文章转载
Total Page Visits: 574 - Today Page Visits: 1

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注