文 / 烽火台
最近,ChatGPT(Chat Generative Pre-trained Transformer)火了。这是一款由美国OpenAI公司研发的聊天机器人程序,于2022年11月30日发布。ChatGPT是人工智能技术驱动的自然语言处理工具,它能够通过理解和学习人类的语言来进行对话,能与人进行聊天交流,甚至能完成邮件、文案、翻译、代码、论文等的撰写工作。
看过演示,本人的结论是:进步没有问题,但仍然局限在“机器”的范围内,与人的智力活动依然不是一个档次。实际上,自二十世纪六十年代人类发明计算机(电脑)以来,虽然有“摩尔定律”的推动,人工智能发展迅速,让人类社会很快进入了后工业时代——数字信息时代,大大减轻了人们的体力和智力劳动的负担,大幅度提升了生产和工作效率,但人工智能一直局限于“机械”范畴,不能真正进入“智能”状态,是套在人工智能上面的一个“紧箍咒”。
人工智能与人的智力相比,有两个不能逾越的障碍:一是人的智力有并行思维的特征,人工智能没有。并行思维是指人接受到各类信息后,能够进行快速的合并处理,而人工智能需要对信息进行分类和程序化处理,且处理结果受前置程序的限制。简单讲,面对复杂信息,人的思维可以瞬间挑选出重要的、有用的部分,而人工智能需要进行一步一步的推算,耗费的时间和能量远大于人,且结果不一定正确(固定程序的演算除外)。试举一例,两个相识的人,即使长时间不见,或者更换了服饰和妆容,见面的时候照样能够认识,人工智能遇到这种情况,只能“傻眼”。二是人有情感活动,人工智能没有。那些科幻电影里表演的机器人情感,现实中没有,不能作为论证依据。人的情感对人的知识、认知和理性思维有重大作用,人工智能属于知识领域的设施,目标是追逐人类智力。人工智能身上缺乏人类具备的重要成分,如何能够赶上人类的智力?
那么,有人会问,既然人工智能比不上人类智力,那些电脑功能、智能操控,甚至在数据界、围棋界、象棋界等领域,超越人类的能力和结果,应该怎样去看待呢?很简单,人们怎样去看待拖拉机、起重机和人的体力的关系,就应该怎样去看待人工智能和人的脑力的关系。它们再厉害,和人的智力能力相比,也不过是九牛一毛,最多算作人的体力和脑力的工具性延伸。荀子《劝学篇》早就说过:“君子性非异也,善假于物也。”(君子的性情与别人没有不同,只是善于借助外力成就事业罢了。)

人工智能具有天然局限的原因,在于它就是人造的工具。人工智能的起步在于二战以后半导体材料的发明,本来电力的走向是双向互动的,半导体材料的出现,则使电力能够单向行进,这为人工智能的创造和发展提供了硬件基础。半导体的基本应用就是“通”与“不通”,延伸到人工控制上就是“有”和“没有”。因此,人工智能控制程序(电脑软件)的基础符号就是“1”和“0”,数学上称之为“二进制”。
人工智能硬件的发展路径,从电子管、晶体管到集成电路,体积从一台计算机一座高楼大厦,到如今的手机和手提电脑,芯片就是它的“心脏”;人工智能软件的发展路径,不论是B语言,还是C语言,从二进制的“1”“0”一直发展到win11、深蓝、阿尔法狗、王者荣耀、ChatGPT,当然包括政府部门、电信、银行和企业使用的统计、通讯、管控和计算软件(在四大软件面前,这些专业软件就是小儿科)。由于二战以后人工智能的发展速度太过惊人,英特尔创始人之一戈登·摩尔总结了一条规律:“集成电路上可以容纳的晶体管数目,每经过18到24个月便会增加一倍。”换言之,处理器的性能大约每两年翻一倍,同时价格下降为之前的一半,人们把这一说法称之为“摩尔定律”。当然这只是一种经验总结,能否长久如此,怀疑的人也不少,不过芯片的发展至今还在遵循着这个时间要求,摩尔定律依旧有效。计算机的基本规律是,硬件进步,软件也同时进步,二者是相互匹配的。
由于硬件的支撑,软件就有了人类智力的特征。计算机的硬件类似于人的肉体,软件则类似于人的精神。有人早就注意到,计算机编程语言的基本单元是“1”和“0”,按照物理的电学图标,就是“—”和“--”,“—”表示通电,“--”表示断电。物理学是西方传入中国的,西方人是否学过中国的《易经》我没有查到资料,但物理学的电力图标和计算机语言的基本符号,却无意中与《易经》的阴阳二爻相吻合(“—”为阳爻,“--”为阴爻)。
有人说是中国的《易经》启发了西方的人工智能,但人工智能的起始点不在软件,而在于半导体的发明。计算机语言的编制程序,是为了适应半导体的特性,与《易经》没啥关系。但从总体上说,东西方的技术发明和智力活动,的确有其相似之处,这是源于自然界的属性和人类的特征有其共通之处,不论是东方人还是西方人,大家都处在同一个地球上,也都属于人类,即使在文化和文明上有所差异,但基本特性应该是一样的。人工智能的基础符号与中国最古老的《易经》相吻合,说明人类智力的起点具备共通共融的特性。

如同耕牛和拖拉机能代替人的臂力和体力一样,人工智能也能代替人的大脑开展工作。然而,人的臂力和体力虽然有大小的局限,但没有范围的局限,耕牛和拖拉机的力量虽然大于人类,但其活动范围是有局限的,且需要人的操控;人工智能和人的大脑相比,也是同样的道理。当人工智能突破人的一些常规认知和正常活动的时候,人们总会发出“人工智能威胁人类”的惊呼,如当年的克隆技术、基因编辑等的出现,立即激起了人们关于伦理、道德和安全一类的话题。
网上有信息说,ChatGPT的出现,马斯克也发出了警告,说是先要论证清楚对人类的安全问题,再向前发展。我虽然怀疑这个消息的真假,自己却也无法核实,只能等待以后澄清。我认为马斯克不会说出这样的话,但发明原子弹的爱因斯坦和奥本海默,理论物力学家霍金,都提出过类似的警告,这些内容都是真实的。爱因斯坦和奥本海默担心原子弹毁灭人类,霍金则担心外星人毁灭人类。我觉得他们的这些看法,与如今的人工智能毁灭人类一样,都是一种多余的担心和错误的言论。实际上,除了地球自己毁灭(前提是人类没有迁移到别的星球),靠人类自己根本毁灭不了人类,只能在破坏的程度上说话。
人工智能之所以超越不了人类,更没有可能毁灭人类,从人类知识的方法论角度讲,主要是计算机的硬件和软件把它局限在二元思维和逻辑结构的范围内。也就是说,人工智能的方法论遵循的是人类最原始的“二元对立”思维,也可以称之为“阴阳辩证”思维。“原始”就意味着“落后”。人类文化经过两千多年的演进,产生新知识的方法论已经从二元思维上升到科学思维,期间经历过辩证法、经验法、演绎法、唯识法和实验主义。如今的科学方法,立足观察试验,包罗了人类发现的各种思维和实验方法,并不拘泥于某一种状态。而人工智能的基本方法,仍然被牢牢地套在二进制模式里面,未能得到丝毫的改变和进步。此其一。
其二,如何让人工智能突破人类情感这个门槛,恐怕目前还摸不着门道。经过方法论的改善和加注人类情感的因素,人工智能才有紧接近和具备并行思维的可能性。人类知识遵循的是“感性--理性--跃迁--新感性--新理性”和“认识--实践--确定--跃迁--新认识--新实践--新确定”的图式向前演进,计算机只有走到这个地步,才能算作真正的“人工智能”。不从根本上改变计算机的底层逻辑,沿着目前的技术路线走下去,即使摩尔定律一直生效,人工智能也跳不出“机械”的范畴。
日本人为了改变这种状况,八十年代末期曾动用国家力量,试图通过“集中力量办大事”,发明出真正的“人工智能”,他们集中了国内顶尖科学家和大量的人力、物力、财力,最终没有成功,最后不了了之,说明模仿人类智力的艰难程度。最近,我看到北大教授徐英瑾谈ChatGPT的一段视频,标题是“惊人耗费打造的套话机器”,表达的也是这个意思(见“北京大学出版社”公众号2023.04.09发布)。他说:“仅仅用于写作和对话,ChatGPT3的参数高达1750亿个,预训练的资料量是45TB,需要调用285万个CPU、1万个GPU,训练总费用是1200万美元。”他说,用如此高的耗费,仅仅制造出一个会说套话的机器,实在是得不偿失。
结语:在发展人工智能的道路上,人类仅仅是开了一个小头,连“初级阶段”都谈不到。人类智力的浩瀚无垠,不是几台机器能够替代得了的,即便拥有了5nm芯片、量子计算机和能够联合运用全世界设备的云计算,在人类的智力面前,永远是沧海一粟、九牛一毛,没有多大的分量。人工智能,任重道远!

(注:图片来自网络)
评论留言