早在伊隆·马斯克和苹果联合创始人史蒂夫·沃兹尼亚克签署一封警告人工智能对人类构成“深远风险”的信之前,英国理论物理学家斯蒂芬·霍金就已经对快速发展的技术敲响了警钟。
霍金在 2014 年的一次采访中说“人工智能的发展可能预示着人类的终结,”
霍金患于 2018 年去世,享年 76 岁。尽管当时他对 AI 发表了批评言论, 但是霍金在 1985 年就已经无法说话,只能依靠各种方式进行交流,包括由英特尔运行的语音生成设备,该设备使他能够使用面部运动来选择合成语音的单词或字母。其实他也是在利用当时比较简单的人工智能基础技术。
霍金在 2014 年接受采访时说,人工智能可能“预示着人类的终结,非常基本的人工智能形式已经被证明是强大的,但创造出可以与人类智能相媲美或超越人类智能的系统对人类来说可能是灾难性的。
它会自行运行并以不断增加的速度重新设计自己。
受生物进化缓慢限制的人类无法竞争,而且会被取代。
霍金去世几个月后,他的最后一本书上市了。书名为“大问题的简要回答”,为读者提供了他经常被问到的问题的答案。这本科学书籍阐述了霍金反对上帝存在的论点、人类有朝一日将如何生活在太空中以及他对基因工程和全球变暖的恐惧。
人工智能也在他的重大问题列表中占据首位,认为计算机“可能在 100 年内在智能方面超越人类”。
我们可能会面临一场智能爆炸,最终导致智能超过我们的机器。
计算机需要接受培训以符合人类目标,不认真对待与人工智能相关的风险可能是我们有史以来最严重的错误。
霍金的言论呼应了今年科技巨头埃隆·马斯克和苹果公司联合创始人史蒂夫·沃兹尼亚克在 3 月份发布的一封信中提出的担忧。这两位技术领导者与其他数千名专家签署了一封信,呼吁至少暂停六个月构建比GPT-4 聊天机器人更强大的人工智能系统。
具有人类大量信息的人工智能系统可能对社会和人类构成深远的风险。
尽管有人呼吁暂停正在超越 GPT-4 的技术的研究,但该系统的发布是一个分水岭,在整个科技行业引起反响,并促使各家公司竞相构建自己的人工智能系统。
谷歌正在努力彻底改革其搜索引擎,甚至创建一个依赖人工智能的新引擎;
微软推出了“新必应”搜索引擎,被描述为用户的“网络人工智能副驾驶”;
马斯克表示,他将推出一个竞争对手的人工智能系统,他将其描述为“最大限度地寻求真相”。
霍金在他去世前一年建议,世界需要“学习如何准备和避免与人工智能相关的潜在风险”,他认为这些系统“可能是我们文明史上最糟糕的事件”。然而,他确实指出,未来仍然未知,如果训练得当,人工智能可能对人类有益。
成功创造有效的人工智能可能是我们文明史上最大的事件。或者最糟糕的。我们只是不知道。所以,我们无法知道我们是否会得到人工智能的无限帮助,或者被它忽视并被边缘化,或者可以想象被它摧毁。
我们要理性面对现在的人工智能技术,要合理的运用,不要使它成为淘汰人类的钥匙!
评论留言