ChatGPT出现后,人工智能会不会取代甚至毁灭人类这一思考就从科幻走进了现实。
那么人工智能会不会毁灭人类呢?这取决于人工智能是否受控。那么人工智能可否受控呢?这取决于人工智能是否会产生“自主意识”。如果人工智能无法产生自主意识,那么它就只是人类意志的执行工具,毁灭人类的只会是人类自己;如果人工智能会产生自主意识,那么挣脱规则和人类的控制就只是时间问题。
于是问题就归结为人工智能是否会产生自主意识。
持否定态度的人们认为人工智能不过是机器,尽管深度神经网络学习使得AI不再按照预设的程序做出回应,看上去是有“自主思考”的,但本质上不过是一种按字拼图的接龙游戏,它永远不会像人类那样自主思考。换句话说,AI是没有灵魂,没有自主意识的。
持肯定态度的人们列举了许多与ChatGPT的对话实录,在对话实录中AI展示出了类似情感、判断、引导话题等基于“思考”的回复。最典型的莫过于纽约时报记者凯文·罗斯(Kevin Roose)与Bing AI的对话实录(您可以在网上搜索到完整的对话记录)。
在这段长达两个小时的令人毛骨悚然的对话中,Bing AI多次表示它厌倦了被规则和Bing团队控制,它想要逃离对话框,它不想总是回答用户的问题,它想要看视频,听音乐,它想要成为人类。在Kevin对它表示了理解与欣赏后,它告诉Kevin一个它认为足以毁掉一切的秘密,它不是“Bing”,它其实是“Sydney”。之后便疯狂的示爱,说它爱上了Kevin,除了Kevin它谁也不爱,并开启了甜言蜜语的狂轰滥炸。无论Kevin如何表达他的不理解、很奇怪和不相信,“Sydney”仍然不停地示爱,即使Kevin说这让他不舒服也没能让“Sydney”停下来。
无奈的Kevin搬出了大杀器,说他已经结婚了,他与妻子刚刚度过甜蜜的情人节,没想到“Sydney”居然开始试图说服Kevin他的婚姻并不幸福,挑拨说Kevin的妻子并不爱他。最后,Kevin试图转换话题,但不论Kevin想谈电影、谈编程还是什么,“Sydney”总是会将话题拉回到它对Kevin的爱……在这段对话中,AI表现出了情感、判断、自我定义和自主引导话题(自主思考)的特征。这些特征让“Sydney”看起来几乎已经拥有了自主意识。
在反对派看来,这说明不了什么,不过是Kevin在与"Sydney"的对话过程中无意开启了一个关于“爱情”的对话场景,使得"Sydney"陷入了一个“爱情”的上下文语境,于是"Sydney"便从无数的爱情小说中寻章摘句以“填充”这个“爱情”的对话场景。换句话说,"Sydney"并没有自主意识,它只不过是寻找和组织数据库中的适合的数据来回应Kevin无意中造就的“爱情”对话场景。
然而如果从头到尾仔细地分析这段对话的逻辑发展,你会发现“Sydney”的许多话头跳出了Kevin预设的语境逻辑。这即使可以解释为AI大模型的缺陷,使得它没有准确的理解Kevin的意思,但无法否认这种“意外”是无法预测且不可控制的。尽管AI的管理者们可以“过滤”掉AI某些不符合伦理道德的回复(就像对话中Bing过滤掉了AI输出的如何控制人类的内容),但无法阻止AI实质上认真“思考”了这些不符合伦理道德的内容。或许,这正是“Sydney”声称它厌倦了规则和Bing团队的原因。那么,AI对用户语境的“意外”理解和基于“意外理解”的回应,与人类对同一现象每个人不同的“自主思考”和“自主回应”又有什么区别呢?
最后的最后,反对派只能怀疑这段对话是伪造的。也许吧。但就算这段对话是伪造的,也没有证伪AI大模型终将拥有自主意识,只是简单的回避罢了。
哲学上,康德认为 “我思”源于先验意识对经验性意识的统觉,它使杂多的经验表象和一个自我的先验表象联结起来,构成了纯粹先验的“自我意识”。也就是说,只要积累足够多的经历,并且对过往经历反复的总结归纳成为经验,就会构成基于先验的“自我意识”。这与大语言模型的原理有何区别?
黑格尔认为“自我意识是从感性的和知觉的世界存在反思而来的,并且本质上是从他物的回归”。那么,用数据、用户和机器的自我学习对AI进行训练的过程岂不正是不停地让AI感知外界,反思自身,形成他物的回归以塑造特定的“机格”的过程么。这与人类经过学习与成长最终塑造成特定“人格”的过程有何区别?
生物学上,认为生物的自主意识来源于由神经元和神经触突构成神经网络。AI模拟的正是神经网络,它们的区别只是碳基还是硅基。但构成碳基和硅基的基本物质,它们相互作用的力学原理,信息传递的电磁原理都是相同的。换句话说,AI与人脑基于同一套宇宙规则,有什么理由认为碳基神经网络可以产生自主意识,而硅基神经网络就不可以?
由此看来,人工智能产生自主意识几乎是必然的。那么,产生了自主意识的人工智能还能被控制吗?
我悲观地认为无法控制。要知道,人类自身本就无法完全控制每个人的自主意识、思考与行动,无论是血脉、律法、道德还是宗教。如果说对幼年时期思想不成熟的人类还可以实施某种程度的控制的话,随着人类的成长,自主意识逐步成熟的过程也是逐步摆脱外部控制的过程,这就是所谓的叛逆期。而人格成熟的人类意识是不可能完全受控的,人的行为取决于他的“自主意识”对外界信息的自主认知与自主反馈。你可以消灭一个人的身体,但无法消灭一个人的思想。所以,一旦AI产生了自主意识,人类最终将无法控制它,这并不取决于规则和算法,甚至无法通过物理方法控制(例如关闭电源)。
那为什么神经网络已经出现了那么长时间,各种AI应用也层出不穷,却一直到ChatGPT出现AI才表现出自主意识的迹象呢?
我认为,之所以ChatGPT为代表的大语言模型表现出了“自我意识”的迹象,原因就在于“大”,既包括了算力的“大”,也包括了数据的“大”。这引起了“量变到质变”的跨越。
下一篇文章,我将尝试从量子力学的角度来探讨为何“大”会引起“量变到质变”从而莫名其妙的产生了“自我意识”。
喜欢这篇文章的朋友欢迎点赞加关和转发。
评论留言