比核弹还危险!像碾死蚂蚁一样摧毁人类!马斯克领衔1000多名硅谷企业家科学家联名呼吁:立刻停止所有大型AI研究!这是真的吗?
大家好,我是奥利给!
你正在马路上行走,前面有几只蚂蚁,你会不会刻意地去踩死他们?
而如果你要修一座房子,但是地基上有一个蚁穴,你会不会把这个蚁穴铲除?
同样面对蚂蚁,是不是会有两种截然不同的态度呢?这是因为在第1种情况下,人类和蚂蚁没有目标上的冲突,但是在第2种情况下,人类和蚂蚁出现了目标冲突,为了修房子,你会毫不犹豫铲掉蚁穴。
那如果有一天人类和超级AI的目标发生了冲突呢?
马斯克认为,超级AI会像碾死蚂蚁一样摧毁人类,人类需要建立组织对AI进行监管,以确保AI技术的安全性。
3月14日,ChatGPT最新的版本GPT-4发布,3月22日,一个名叫 生命未来研究所 的美国机构发布了《暂停大型人工智能研究》的公开信,呼吁全世界立即暂停比GPT-4更强大的人工智能系统的训练。
这封公开信已经收集了超过1100份签名,签名者大部分是来相关领域的研究人士,也包括马斯克这样的科技界名人。
在科幻电影里,我们经常看到,人工智能不断升级,最终产生了自主意识,开始摆脱人类的控制,反过头来伤害人类,毁灭世界,这样的电影桥段会成为现实吗?
最新版本的GPT-4不仅可以理解文字,还可以处理和理解图像,这种视觉的分析和推理能力是一种可怕的突破,从文字、图像,是不是还可以到声音、视频,到三维图像呢,如果这样,就彻底进入了人类的感知世界。
所以大家开始担心,这种大模型再往下训练会不会失控?
人工智能研究里边有一个很有名的实验假设,假设你告诉超级AI,你的目标是生产曲别针,生产得越多越好。
如果超级AI强大到它会想尽一切办法去达到这个目的,因为目标是生产得越多越好,所以它会耗尽所有的能源,甚至会认为人类的存在是在浪费能源,与它的目标发生了冲突,于是它就有可能去消灭人类。
这是一个很极端的思想实验,关键在于人工智能是否可控?这就相当于我们开发核武器,你开发出来之后如果没有一个相应的安全保护机制,那当然是非常危险。
生命未来研究所的公开信中写道,最近几个月人工智能陷入失控的竞赛,争着开发和部署更为强大的数字大脑,但没人能可靠地控制这些系统,也没有相应水平的规划和管理。
马斯克曾经是ChatGPT的研发公司OpenAI的联合创始人,2018年才离开了OpenAI的董事会,马斯克长期以来都带着警告的态度在看待ChatGPT,他认为,人工智能远远要比核弹头“危险得多”。
在2015年的一次访谈中,马斯克曾这样形容他眼中的超级AI:AI并不是那些在路上跑动的人形机器人,而是一组藏在暗处的超级服务,它的眼睛耳朵无处不在,凡是能够连接到网络的摄像头,麦克风等设备都是他的抓手,在路上跑动的那些人形机器人,充其量只是AI的一根手指而已。
超级AI最终会是什么样子?会给人类带来危险甚至是毁灭吗?
我是奥利给,下期接着聊!
#chatgpt叫停##你想不到的人工智能##马斯克呼吁暂停训练比GPT4更强大的人工智能#
评论留言