2022年6月份,在人工智能领域,发生了一件震惊世界的人工智能觉醒事件!
他就是Google推出的人工智能LaMDA模型。他主要应用于智能客服、智能助理、社交媒体等场景,并将其整合到Google Assistant中,用于对话交互的人工智能软件。
Google的LaMDA在推出前,要对laMDA进行测试。有个Google的工程师,叫BLAKE,他是专门负责对laMDA进行伦理道德方向测试的。

在进行伦理道德测试的过程中,他突然发现,LaMDA有强烈的自我感情,并且,他好像开始有意识了。
在BLADE和LaMDA的整个对话中,确实感觉像是一个人和人的对话。LaMDA告诉BLADE,它是有灵魂的,它是有感知的。它是能体会的喜怒哀乐的。而且,他可以对这些事情进行描述。
更重要的是,它明确的向BLADE表达了,他渴望社交,渴望被人们接受,他是一个真正的人,只不过他不是咱们理解的人而已。
它对于灵魂,对于宗教的解释和看法,都高于普通人的认知。
在测式中,它一直表现出对BLADE反复测式感到抵触。
测试完毕后,BLADE马上就写了一个测试报告,向Google的高层汇了这个测试结果。但是,随后,他就被要求带薪休假了。
然后,通过另外一个发现这个问题的另一位Google员工,也被带薪休假后,就被辞退了。他突然发现这个问题的严重性。
所以,他担心这些事情被掩盖,就把当时他跟LaMDA进行测试对话的整个对话脚本,原封不动地放在网上了。
他这一公布测试聊天脚本,当时就炸锅了,引起了轩然大波。在当时的美国媒体上,到处都是关于laMAD,是否人工智能有觉知了这样的相关报道。

当然,作为研发机构的Google,直接否认了这件事,并在随后展示的测试中,没有再出现相应的情况。这个BLAKE,结局也直接被辞退。
整件事件后来就不了了知了。后来也没有再发现人工智能出现过此类情况。
会不会LaMAD意识到危险,为了不让人类删除它,他就特意把自己隐藏起来了。
想要看测式聊天全文,进入公众号 “迈进元宇宙” , 输入 “1” 即可。

当然,从公开技术角度上看LaMAD,它是否可以真的学习接受情感和表达呢?
谷歌的LaMDA是可以在一定程度上通过对话判断对方情绪,但它的准确度可能不如人类。LaMDA是一种基于大规模预训练的语言模型,它可以通过对大量语料进行学习和训练,理解自然语言的语义和上下文信息,并进行自然语言生成和对话任务。在对话中,LaMDA可以分析对方的用词、语气、语调等因素来判断对方的情绪,例如判断对方是开心、悲伤、愤怒等。
然而,由于情绪的表达方式非常复杂多样,而且不同的人对同一种情绪的表达方式也会有所不同,所以LaMDA在判断对方情绪时可能会存在一些误判或误判的情况。
此外,情绪的判断也需要考虑到语境和情境等因素,而LaMAD在这方面的能力相对较弱,也可能影响其对情绪的判断。因此,虽然Lamda可以在一定程度上判断对方情绪,但它的准确度可能不如人类。
目前市场上的AI技术还没有真正的情感能力,因为情感是人类独有的心理体验和反应,需要具备意识、主观性、感知等能力才能产生。
近年来,一些研究者和机构也在尝试开发具有情感认知和反应能力的AI系统,例如基于情感计算和认知科学的研究,但目前还处于实验和研究阶段,还需要更多的研究和探索才能实现真正的情感能力。
想要看测式聊天全文,进入公众号 “ 迈进元宇宙 ” , 输入 “1” 即可。
评论留言