霍金最后的警告 #人工智能

人工智能
后台-插件-广告管理-内容页头部广告(手机)

在什么情况下你会放弃自己的家园?战争、核污染、地震还是爆炸?与斯蒂芬霍金教授的可怕警告相比,所有这些都是小儿科,他没有让我们逃离家园,而是让我们逃离地球。

霍金在警告我们什么?为什么会这么严重?作为理论物理学家、宇宙学家,有史以来最聪明的头脑之一,他的话引起了许多人的注意,但是教授给出了几个理由,这些理由中有些不受人类控制,而有些则是人为造成的。

 

其中就有一个全球正在积极发展的技术,那就是人工智能。随着大数据云计算和大模型的出现,尤其是2022年ChatGPT的问世,全球人工智能完成了一次最大技术跃迁,而人工智能也进入到了生活中的方方面面。

 

而霍金认为,目前人类所掌握的人工智能还处于原始或早期阶段,这时候的人工智能取决于谁控制它。但是长期发展下去,当人工智能变成智能人工后,它还能不能得到控制,或者说生活中的多少事情将会由它们控制。

 

也有些人把霍金的警告看成是科幻小说,但是我们不能不承认机器的学习能力是人类无法比拟的,我们有可能不是出于恶意而踩死一只蚂蚁,但是确实会清除一个妨碍修路的蚂蚁窝。

 

那么人类未来会不会成为妨碍人工智能进化的蚂蚁窝?目前AI强国已相继出台人工智能指导准则或法案,确保人工智能的发展可控。

那么你是如何看待人工智能的发展?你认为霍金的警告是科幻还是杞人忧天?评论区发表下你的看法。

后台-插件-广告管理-内容页尾部广告(手机)
标签:

评论留言

我要留言

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。