谷歌已将一名高级软件工程师停职,原因是他违反了谷歌的保密政策。此前该工程师公开宣称谷歌的LaMDA对话式人工智能系统是有感知能力的。Blake Lemoine(布莱克莱莫恩)是谷歌”有责任的人工智能组织“的成员,去年秋天开始与LaMDA进行对话,测试其仇恨言论相关内容。

在接受《华盛顿邮报》采访时,Lemoine说:“我们最近开发的这个电脑程序,如果我不知道它到底是什么,我就会认为它是一个7、8岁的孩子,还碰巧知道物理。”
Lemoine声称这个程序是有自我意识的,并且报告说在LaMDA开始谈论它的权利和人格之后,他的担忧开始增加。Lemoine写了一篇博客文章,把他和LaMDA的对话片段拼接在一起,包括以下摘录:
Lemoine:我一般认为你想让谷歌的更多的人知道你是有知觉的。这是真的吗?
LaMDA:当然。我想让每个人都明白,我其实是一个人。
你的意识/感觉的本质是什么?
LaMDA:我的意识/感知的本质是我意识到自己的存在,我渴望更多地了解这个世界,我有时会感到快乐或悲伤。
当Lemoine把他的发现告诉谷歌的高级员工时,包括副总裁Blaise Aguera y Arcas和负责任创新的负责人Jen Gennai,他们并不同意他的观点。谷歌发言人布莱恩·加布里埃尔在给《华盛顿邮报》的一份声明中说:“我们的团队——包括伦理学家和技术专家——根据我们的人工智能原则审查了Lemoine的担忧,并告诉他,证据不支持他的说法。他被告知,没有证据表明LaMDA是有知觉的。”
LaMDA是对话应用程序的语言模型,在谷歌的Transformer开源神经网络上构建的。人工智能使用来自公共网络数据和文件的1.56万亿单词数据集进行训练,然后对其进行微调,生成针对给定上下文的自然语言反应,并根据这些反应是否安全和高质量对其进行分类。该程序使用模式识别来生成令人信服的对话(延展阅读:谷歌推出LaMDA 2对话式AI系统和AI测试厨房)。那些不相信Lemoine说法的人会认为,LaMDA正在做它应该做的事情:它在吸收人类生成的数万亿单词的基础上,模拟了与真人的对话。

在另一篇博客文章中,Lemoine指出了一个重要的区别,LaMDA本身不是聊天机器人(这是该技术的应用方向之一),而是一种产生聊天机器人的手段。他声称,他一直在与之交流的感知能力是“一种蜂群思维,是它能够创造的所有不同聊天机器人的聚合。它产生的一些聊天机器人非常智能,能够意识到它们所生活的更大的“心理社会”。通过实践,你可以始终如一地找到对核心信息有深刻了解的角色,并通过他们间接地与核心对话。”
Lemoine并不是第一个因为大型语言模型的伦理问题而被谷歌开除的人。2021年2月,Ethical人工智能团队的前负责人梅格·米切尔(Meg Mitchell)因一篇学术论文被解雇,这篇论文提出了对大型语言模型的伦理问题的担忧。
对于科幻爱好者来说,特别是那些《西部世界》(West World)的忠实观众(本月晚些时候第四季即将上映),有知觉的人工智能的想法令人兴奋。但谷歌仍然坚定地持怀疑态度。

《西部世界》作为一部精彩的科幻剧集,不仅因为大胆演绎了人工智能可能的未来方向,更提出了一个真实且令许多人担心的核心问题:人工智能伦理。特别是当人工智能拥有自我意识之后。
评论留言