围绕人工智能辩论的“危险”意识形态之争

人工智能
后台-插件-广告管理-内容页头部广告(手机)
围绕人工智能辩论的“危险”意识形态之争

特斯拉的埃隆·马斯克是那些声称人工智能可能导致人类灭绝的人之一,但他却声称只有他们的产品才能拯救我们,从而从中受益。

硅谷最喜欢的哲学“长期主义”帮助围绕人类灭绝的想法构建了人工智能辩论。

但越来越多的批评者警告说,这种哲学是危险的,对灭绝的痴迷分散了人们对与人工智能相关的实际问题的注意力,例如数据盗窃和有偏见的算法。

作家埃米尔·托雷斯(Emile Torres)曾是一名长期主义者,后来成为该运动的批评者,他告诉法新社,这一哲学建立在过去用来证明大规模谋杀和种族灭绝合理性的原则之上。

然而,这场运动以及诸如超人类主义和有效利他主义等相关意识形态在从牛津到斯坦福的大学以及整个科技行业中拥有巨大的影响力。

彼得·泰尔(Peter Thiel)和马克·安德森(Marc Andreessen)等风险投资家投资了与该运动相关的延长寿命公司和其他宠物项目。

埃隆·马斯克 (Elon Musk) 和 OpenAI 的萨姆·奥尔特曼 (Sam Altman) 签署了公开信,警告人工智能可能使人类灭绝——尽管他们认为只有他们的产品才能拯救我们,从而从中受益。

最终,批评者表示,这场边缘运动对有关人类未来的公众辩论产生了太大的影响。

“真的很危险”

长期主义者认为,我们有责任努力为最大多数人创造最好的结果。

这与许多 19 世纪的自由主义者没有什么不同,但长期主义者心目中的时间表要长得多。

他们展望遥远的未来,看到数万亿人类漂浮在太空中,殖民新的世界。

他们认为,我们对未来的每一个人类负有与今天活着的任何人相同的责任。

而且由于它们的数量太多,它们的重量比今天的标本要重得多。

《人类灭绝:毁灭的科学与伦理史》一书的作者托雷斯说,这种想法使得意识形态“非常危险”。

托雷斯说:“任何时候,当你对未来抱有近乎无限的价值的乌托邦愿景,并将其与一种功利主义的道德思维模式结合起来时,即目的可以证明手段的合理性,这将是危险的。”

如果超级智能机器即将诞生并具有毁灭人类的潜力,那么无论后果如何,长期主义者都必然会反对它。

今年3月,当Twitter(该平台现在被称为X)的一名用户询问,需要多少人才能阻止这种情况发生时,长期理想主义者埃利泽·尤德科斯基(Eliezer Yudkowsky)回答说,只需要有足够的人“形成可生存的繁殖群体”即可。

“只要这是真的,有一天就有机会到达星星,”他写道,尽管他后来删除了这条消息。

优生学主张

长期主义源于瑞典哲学家尼克·博斯特罗姆 (Nick Bostrom) 在 20 世纪 90 年代和 2000 年代围绕存在风险和超人类主义所做的工作,即人类可以通过技术增强的想法。

学者蒂姆尼特·格布鲁指出,超人类主义从一开始就与优生学联系在一起。

英国生物学家朱利安·赫胥黎创造了“超人类主义”一词,他也是 20 世纪 50 年代和 1960 年代英国优生学会的主席。

“长期主义是优生学的另一个名字,”格布鲁去年在 X 上写道。

博斯特罗姆长期以来一直面临支持优生学的指控,因为他将“基因缺陷压力”列为一种存在风险,本质上是智力较低的人比聪明的同龄人生育得更快。

这位负责牛津大学人类未来研究所的哲学家承认自己在 20 世纪 90 年代在互联网论坛上发表过种族主义帖子,并于 1 月份道歉。

“我支持优生学吗?不,不是这个词通常所理解的那样,”他在道歉中写道,并指出优生学被用来为“上世纪一些最可怕的暴行”辩护。

“更耸人听闻”

尽管存在这些麻烦,像尤德科斯基这样的长期主义者仍然受到欢迎。尤德科斯基是一名高中辍学生,以创作哈利·波特同人小说和提倡多角恋而闻名。

Altman 称赞他为 OpenAI 提供了资助,并在二月份表示他应该获得诺贝尔和平奖。

但格布鲁、托雷斯和其他许多人正试图重新关注艺术家作品被盗、偏见和财富集中在少数公司手中等危害。

托雷斯使用代词“他们”,他表示,虽然有像尤德科夫斯基这样的真正信徒,但围绕灭绝的大部分争论都是出于利润。

他们说:“谈论人类灭绝,谈论每个人都会死去的真正的世界末日事件,比肯尼亚工人每小时 1.32 美元的工资或艺术家和作家受到剥削更加耸人听闻和迷人。

后台-插件-广告管理-内容页尾部广告(手机)
标签:

评论留言

我要留言

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。