11月1日,美国国防部下属的国防创新委员会推出了最终版的《人工智能伦理道德标准》。根据业内人士分析,这一标准的发布意味着美军正式打开了人工智能(AI)军事化的闸门,人工智能将在不久的将来被运用到各种军事领域(美军),现有的军事指挥、管理、武器装备技术甚至军事理念、思维将可能发生翻天覆地的变化。
图:美国发布军用AI伦理原则入选科技政务热度TOP10榜单。
说起人工智能我们都不陌生,几年前打败人类顶级围棋高手的阿法狗就是典型的人工智能。近年来随着技术的飞速进步,人工智能开始被运用到军事领域,并取得了不亚于阿法狗的、令人瞠目的成果。例如2018年初的时候美军就曾用人工智能"驾驶"F16战斗机和人类顶级飞行员模拟空战,取得了几十比零的不败战果。
不过话分两头说,虽然所有人都知道人工智能已经踩着小碎步来了并进入到社会生活的各个领域,但很多军迷老司机们还是对美国的这个概念一头雾水:人工智能的伦理标准是个什么鬼?
图: 模拟空战的人类选手Gene Lee是美空军顶级飞行员,在空战中被人工智能驾驶的飞机吊打
稍微看过一些科幻小说的读者都知道,西方的作者曾经不止一次的预言有一天人工智能进化出了自己的思维,并反杀人类的情节。就在不到两年前(2017年8月)美国Facebook实验室的两台机器人就发生了令人细思极恐的一件事情:它们两个自己发明了一种语言并对话起来了。。。工作人员发现后马上采取了大杀招:拔电源。
图中就是两个机器人自己发明的语言。注意这虽然像但不是英语,是什么语以及什么意思没人知道——可能只有两台机器自己知道。有网友调侃道:
机器人Bob:我们干人类一炮?
机器人Alice:好嘞,好嘞,好嘞。。。
此外,如果将来人工智能版的战争爆发后,发生人工智能染上病毒或者其它什么未知的事故,导致战争不能停止或者其它不可预知的后果,那结果是不言而喻的。
所以美国政府和美军就制定了这个人工智能伦理标准,内容大致包括五个原则:即负责、公平、可追踪、可靠、可控。翻译过来就是:科学家们你们开始搞吧我们同意了,但底线是将来一旦出现不对劲的情况,我得有"拔电源"的能力!
有意思的是,我国对人工智能军事化的态度比较低调甚至暧昧。一方面国内著名学者、军内专家多次在公开场合表明了对人工智能军事化的抵触观点(理由和上文中所述一致,即一旦发生不可预测的事情后果不可控),另一方面我国在人工智能军事领域的研究仍紧随国际领先潮流,近年来取得了丰硕的成果。
这就有点像当年我国搞核武器研究的态度:我们不赞成人类研发核武器,并声明绝不首先使用核武器。但我们必须有和别人一样的核武,未来任何国家敢对我国使用核武,我们保证我们扔过去的,炸的更销魂!
结语:
总之,随着美国第一个发布人工智能伦理标准,美国将大踏步地走向人工智能军事化的领域,其它军事强国的跟进也是不可避免的。这是不是如国际军事专家所说:潘多拉的盒子被打开了?将来一旦发生不测,人类是否还有"拔电源"的机会?只有拭目以待了。
文章为朴刀军事原创,未经许可请勿转载,图片来自网络,如侵权请告知删除,谢谢!
评论留言