这两天有人问我,美国的无人机是不是已经有了很强的人工智能水平,有了自我意识了。之所以问这事,是因为5月份的时候,一名参与空军人工智能和机器学习工作的美国空军上校表示,在英国参加皇家航空学会未来作战航空航天能力峰会的时候说,有一次在模拟测试中,无人机造反了。
这位上校没说造反事件是什么时候发生,就说在一次模拟测试中,一架人工智能控制的无人机执行SEAD任务,就是要识别和摧毁对方的防空导弹发射阵地。由于在训练中加强了摧毁防空阵地这个首要任务的重要性,具体说就是给了一个特别高的分值,所以人工智能执行的也是非常坚决,当操作人员下达指令“No go”,也就是对目标不开火之后,无人机的人工智能觉得操作人员是在干扰它执行最高任务,凡是阻碍这个任务的都是敌对目标,然后就自主对操作人员开了火。
这样肯定不行啊,所以下一轮模拟中,就规定如果AI向控制人员开火就要扣分,这一轮AI果然老实多了,去打自己一方的通信控制设备了,控制已中断,你就没法阻止我攻击目标防空阵地了。
所以有人说这不就是电影终结者的情节么,除了终结者还有很多电影都这样。那么美国的人工智能是不是已经发展到一个更高水平,开始具备自我意识了?要知道,一旦有了自我意识,那可就是强人工智能了,尤其是前一段时间各种GPT大火特火,很自然就会导致很多人产生这样的联想。
其实,我们分析一下这位美军上校的介绍就明白,这并不是美国无人机有了强人工智能,而是美军测试人员的智能有点偏弱。
因为他的介绍里其实已经带出了一个信息,无人机的AI是计算各种行动方案结果,再通过得分排序进行决策的。比如测试人员命令中止行动,那么得分可能就是0分,而干掉目标阵地就能拿满分,干掉测试人员消除行动阻碍,扣分不算太多,AI一算,就知道怎么做了。
所以这个人工智能的聪明之处在于,它能清楚的认识到采取什么样的行动可以消除行动障碍,但是它只认分数不认人,并没有聪明到形成真正的自我意志,分清敌我。
所以要怪就怪测试人员,谁让他们没设置误伤友军分数扣光这个规则呢。说白了,编写程序的时候没有考虑充分,给了AI一个漏洞或者说误导。
美军公布这个测试,是想说明美军一直不给无人作战平台自主开火权的理由,现在给无人机自主开火权限还是太危险了,这东西暂时还是太不可靠。
不过美国人说完自己,还不忘了算计一把中国,美国军事评论人员说,像中国这样的潜在对手正在大力投资自己的人工智能驱动的军事能力,不能保证中国这样的对手会不会考虑这么多。
那美国真是多余操心了,难道他们担心中国无人机会误伤中国人么?他们只不过是希望找个理由,忽悠赶紧遏制一下中国军用人工智能的发展,别让中国在这个领域抢先一步。
评论留言