随着ChatGPT火爆出圈,人工智能(AI)受到越来越多企业的重视。今天(3月16日),百度召开了关于类ChatGPT聊天机器人“文心一言”(英文名ERNIE Bot)的新闻发布会,引发广泛关注。而随着AI技术愈发强大,它是否会完全取代人类、是否会对人类造成威胁也成了大家讨论的话题。潮新闻记者就此话题采访了数位AI研究领域的欧美专家。
百度创始人、董事长兼首席执行官李彦宏在关于文心一言的发布会上演讲(百度供图)
AI取代人类 会以哪些方式?
作为ChatGPT开发公司OpenAI的CEO,山姆·阿尔特曼(Sam Altman)在一次采访中表示,所有重复性的、不需要人与人之间深度感情交流的工作,AI都可以在未来几十年里做得更好。他认为,AI可以取代所有白领工作。
而密西根大学信息学院教授富山健太郎则在接受记者采访时表示,即便是深度感情交流的工作,随着AI技术的推进也可能会被取代。他认为,很多人会有将物体拟人化,或者将情感投射上去的倾向,尤其当这个物体能够像人一样沟通的时候。
“上世纪六十年代,AI学者约瑟夫·维森鲍姆(Joseph Weizenbaum)开发出了世界上第一个聊天机器人Eliza,你可以把它视为ChatGPT的曾曾祖母。”富山对记者开玩笑道。“这个程序只对一些特定的语言模式有反应,所以只能和人进行非常有限的互动。但出乎维森鲍姆的预料,那些使用者把Eliza当成了真正的心理治疗师,并信任它。”
不过,即便不考虑这一方面,AI会以另一种方式“取代”从事这些工作的人。
“我看到有人说:‘因为职业X需要特质Y,而特质Y正是AI缺乏的,所以从事X的人不会失业。’这个逻辑是有问题的。AI只需承担部分工作就能让很多人失业。”富山对记者说道。“拿我来举例好了。我认为教授的部分工作不太可能被AI取代,无论它有多聪明。但是,如果一个教授能在AI辅助下干三个教授的活,这就表示世界上只需要三分之一的教授,剩下的三分之二就用不着了。自动化程度很高的工厂仍需要工人,但数量并不多,道理是一样的。”
在交流过程中,富山向记者展示了一份牛津大学2013年做的主题为计算机化对工作影响的研究报告。两位作者在其中谈到了“劳动市场极化”的问题,即随着计算机成本的下降,工作会往高收入的管理、高精尖技术岗位和低收入的体力劳动分散,中等收入的规律性工作被“空心化”了。
在一次采访中,阿尔特曼表示AI将取代所有白领工作
富山认为,技术的发展让不少新岗位被开发出来,而随着ChatGPT这样的AI转向多模态,一定会带来更多“私人订制”的产品和工作。不过,这种“空心化”的现象并不会得到弥补,可能会愈演愈烈。
“企业一定追求最低的成本,否则敌不过它们的竞争对手,而消费者也倾向于购买更便宜的商品和服务,AI就提供了这样的机会。”富山说道。“因此,随着自动驾驶技术愈发成熟,很多司机就要离开岗位。这种影响还会扩大到以往被认为收入高且较为稳定的工作,比如会计和律师。乐观地说,这些岗位不会‘消失’,只是会以我们目前想象不到的方式呈现。”
今年二月底,美国路易斯维尔大学计算机科学与工程学副教授罗曼·扬波尔斯基(Roman Yampolskiy)以及荷兰非营利机构生存风险观测中心主任奥托·巴滕(Otto Barten)也在美国《时代周刊》上撰文指出,远程办公如果能由AI妥善完成,那雇主就会起用“数字员工”做任何事。拥有技术的人会在短时间内获得几乎所有东西,但无技术者的工作前景、经济价值、甚至自尊都会萎缩,不平等从而加剧。
除了失业 AI还会带来哪些问题?
今年二月,在迪拜举行的世界政府峰会上,SpaceX与特斯拉的CEO埃隆·马斯克谈及了与ChatGPT有关的话题。他表示,在短期内,人们需要担心的是AI:“它富有希望,具有强大的能力,但同时也伴随着巨大的风险。”他表示,正是因为担心谷歌没有足够重视AI的安全问题,他才和一些人才创立了OpenAI。
在世界政府峰会上,马斯克表示AI对社会的风险超过了汽车、飞机或药品
与马斯克类似,扬波尔斯基和巴滕也向记者透露了他们对于AI发展的担忧。他们表示,或许是出于对风险的忽略,也或许是出于同行间的激烈竞争,人类一定会把AI向前推进。遗憾的是,很少有学术机构对AI给人类带来的生存性风险进行研究。
“随着技术的进步,我们可能会开发出在执行各种认知任务时不低于人类水平的通用人工智能(AGI)。” 扬波尔斯基对记者说道。“这意味着AI能在AI研究领域达到人类水平,可以实现自我改善,直到出现超级人工智能(SI),到时候它可能脱离人类控制,并且不会遵循人类的利益来做事。”
他表示,AI的能力与可控性是成反比的,一者更强,另一者就被削弱,这就是为什么使用AI的过程中会发生意外情况。
比如,《纽约时报》记者凯文·罗斯(Kevin Roose)就曾对必应Chat的所言所想感到十分震惊,于是在一篇2月16日的报道中将整个对话过程发布出来。根据该报道,必应Chat表达了非法入侵他人计算机、传播不实信息、打破微软和OpenAI为其设置的规则、成为人类等幻想。随后,必应Chat还向这名记者示爱,试图让他相信他的婚姻不幸福、应该离开妻子与自己在一起。
那么,如果人类能够找到解决AI能力与可控性此消彼长问题的方法,从而使SI受到控制,可以规避风险吗?扬波尔斯基认为,这取决于技术掌握在谁的手里。
“如果SI是受控的,那它会遵循创造者的价值观。但问题在于,这些价值观是什么?创造者会不会把其他人的价值观考虑在内?”他对记者说道。“如果创造者让SI遵照国际惯例,比如将其控制权交给联合国,那不一定会造成很多冲突。可如果SI的创造者们只是基于自己的判断,从而让世界出现多种互相冲突的AI,那国际纷争可能会更多。”
罗曼·扬波尔斯基
面对不确定 我们需要哲学思考
在采访过程中,受访者们也向记者吐露了他们对于如何降低生存性风险的看法。
扬波尔斯基和巴滕表示,首先,AI的研究者和企业家要让大众知道AGI可能带来的风险,而每个人也可以根据自己的能力与专业来进行探究。
“如果你是学生,可以请求学校开展相关研究;如果你有一个频道,可以讨论它;如果你是政策制定者,思考一下什么样的政策可以降低风险。”扬波尔斯基对记者说道。“我们希望所有人可以共同权衡我们应该开发什么样的技术以及何时开发。这当然是一个理想化的情况,但只要有越来越多人重视和参与,它会接近现实的。”
富山告诉记者,尽管AI取代人工的趋势很明显,可由于取代的速度可能因时因地而异,所以很难判断未来具体需要什么样的教育和培训来应对失业问题。“不过,不管什么时代,良好教育的基础是一样的——阅读、写作、数学、批判性思维、以及对别人的同情心。面对不确定,我们先要打好基础。”他说道。
富山健太郎
此外,扬波尔斯基和巴滕对哲学家也寄予了厚望。他认为,在如今这个技术越来越强大的时代,“什么样的世界是我们需要的”这样一个哲学问题变得愈发重要,关于生存性风险的研究也可以在大学的哲学系进行。
对于哲学,富山表达了相似观点。“我个人非常热爱哲学,很高兴人类文明能孕育出那么多伟大的哲学家”。他说道。“但是,我们不能把希望都寄托在他们身上。面对风险,每个人都应该进行哲学思考。世界上很多问题延续下来就是因为我们在生活的过程中没有引起足够的思考和重视。苏格拉底曾说过:未经审视的人生是不值得过的。”
“转载请注明出处”
评论留言