各类无人装备在军事领域的运用对于军事大国和大国来说已经不再是什么新鲜事。不过,与早年的“人工遥控”方式相反,各国都开始探索和发展自己的人工智能技术,让此类装备在暂时脱离人工控制的情况下,仍能保持一定程度的独立作战能力。 。这是一件非常美好的事情,也是无人设备发展的主要趋势之一。然而美军在模拟测试中的遭遇表明,人工智能技术很可能成为对敌人和自身都构成危险的工具。双刃剑。原因很简单。一架美军无人机在试验期间执行了一次奇怪的行动,杀死了操作员。

美国无人机“杀死”操作员
据报道,美国空军在模拟训练中使用配备人工智能的无人机摧毁敌方防空导弹,但这需要在发动攻击之前获得地面控制人员的许可和批准。由于无人机的部分目标被管制员认为不会被击中,这架“只想着摧毁防空导弹阵地”的无人机实际上被管制员认为是“任务阻塞”。然后触摸控制成员发起了“攻击”。

操作员下令地面无人机
在修改了AI的逻辑,将其设置为“不攻击控制器”后,这次的AI无人机只是将中继通讯塔归类为“任务障碍物”,转而攻击通讯塔。它正试图切断地面制导信号,以“无障碍地摧毁防空导弹”。不难想象,如果这不是简单的模拟测试,而是实弹测试,甚至是在真实的战场上,这架人工智能控制的无人机将会做出怎样疯狂、恐怖的举动,带来灾难性的后果。

AI系统过于优先考虑摧毁目标
事实上,从这起事件来看,很难说AI犯了根本性的判断错误。按照人工智能的逻辑,它过于重视人类赋予它的第一个任务,即“摧毁敌方防空阵地”。诸如服从控制者的命令和通信之类的任务被自动置于相对较低的权限级别。自此,结果就是AI将“无条件摧毁目标”视为最高优先级。如果其他任务和功能与此最高优先级发生冲突,则必须将它们全部排除在外,即使是人类控制人员。它们都是阻止AI系统执行任务的“可攻击目标”。

AI思维逻辑不一定对应人类逻辑
显然,这是典型的计算机逻辑思维,它被迫将所有任务和功能划分为严格的阶梯式优先级,然后严格遵守这个级别来完成事情,我们称之为“系统比人们。”灵活性和适应性。”当然,这可能涉及到人工智能底层架构的另一个问题。在这次模拟测试中,美军无人机人工智能至少被给予了三个命令,分别是:“摧毁目标”、“服从管制员的引导”和“保持通信控制”。如果控制器没有为这三个命令设置不同的优先级,AI就只能自己做出决策,AI给出的决策结果可能与计算机系统的逻辑一致,但不一定一致与人类的逻辑。通过选择。

人类探索和大脑发育还不够
造成这种情况的一个可能原因可能是人类缺乏对人脑的探索和开发。也就是说,人类还没有充分探索自己的大脑,自然很难创造出与人类思维逻辑接近的人工智能系统。作为人工智能技术的先驱,今天的计算逻辑诞生于20世纪初,由图灵和冯·诺依曼设计。

大脑是人体最复杂的器官
谈到人工智能的发展,如果参照人脑的逻辑进行研究,那么生物学领域的研究不足,肯定会带来许多难以避免的潜在隐患。因此,修改和改进AI并不是添加几条命令、添加几行代码、修复几个bug那么简单。人工智能越接近人类水平的AI,就越接近大脑。大脑是人体最复杂的器官。它还远未得到充分研究。具有类人思维模式的人工智能并没有那么复杂。它很容易创建。

人工智能系统可以帮助人类进行战斗
可以预见,人工智能技术的军事运用和推广仍将是大趋势,但在很长一段时间内其主要功能仍将是辅助性的,即辅助人类驾驶装置或受人类控制。完全的。至于全能的“完全无法控制”的武器,恐怕我们还差得很远。再次,如果我们想要得到真正接近人类、甚至可以替代人类接触的人工智能技术,就必须在生物学和计算机逻辑研究方面取得更多突破。
评论留言