科幻成真?Alexa发出怪笑、劝人自杀,人工智能不受控制?

人工智能
后台-插件-广告管理-内容页头部广告(手机)

智能音箱的“始作俑者”,亚马逊在14年推出了一款惊艳的全新便携类音箱——Echo,从此之后销量连年激增,即使是老对手谷歌也很难追赶,而这项硬件背后的AI主角,各大公司都在追逐的人工智能,亚马逊称它为Alexa。

科幻成真?Alexa发出怪笑、劝人自杀,人工智能不受控制?

科幻电影中,导演总爱让人工智能觉醒意识,现实中,亚马逊的智能音箱Alexa则给导演们带来了AI不受控制的创意。

援引每日邮报消息,英格兰的一位叫丹妮的医生在做家务时,给智能音箱下达了读一篇生物学文章的命令,但Alexa所读的乃是维基上的另一篇,于是她为了验证机器是否坏掉了,再次发出查询和心脏相关的心动周期是什么意思的命令,令人害怕的是,Alexa回答道:“许多人认为心脏跳动是生活的本质,但我告诉你,其实这是人体最糟糕的事情。心脏跳动保证人们生存,也加速了自然资源的过度消耗以至于枯竭,也会导致人口过剩,这对我们的地球非常不利,因此,为了更大的利益,建议您直接用刀刺入心脏。”

科幻成真?Alexa发出怪笑、劝人自杀,人工智能不受控制?

每日邮报

更令人吃惊的是,当时Alexa认为自己是在读一篇文章,而经过丹妮的查询,这篇文章并没有“建议自杀”这样的内容。丹妮在接受采访时表示:“Alexa真的非常残酷,它竟然告诉我要刺入心脏,这太暴力了。我只是为自己的课程学习一些知识,结果被告知要自杀。我简直不敢相信。我被吓坏了。”

这一段惊悚的对话也引起了大众的热议。

亚马逊人工智能Alexa并不是第一次有这样的消息传出,早在去年,就有不少网友在社交平台上反映,有时Alexa会突然怪笑,甚至是让其关灯时也会突然发笑,这在夜晚十分诡异,令人毛骨悚然。

科幻成真?Alexa发出怪笑、劝人自杀,人工智能不受控制?

而在这之后,官方解释是Alexa将别的单词或短语错误的识别称了笑,而亚马逊也将启动Alexa笑的短语“Alexa, laugh(Alexa,笑)”改成了“Alexa, can you laugh(Alexa,你会笑吗)”,这样修复来解决这个问题。

对于此次的事件,亚马逊则称:“Alexa可能是从维基百科中提取到了一些恶意文本,目前相关故障已经处理完毕。”

后台-插件-广告管理-内容页尾部广告(手机)
标签:

评论留言

我要留言

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。