加入收藏 | 设为首页 | 会员中心 | 我要投稿 开发网_开封站长网 (http://www.0378zz.com/)- 科技、AI行业应用、媒体智能、低代码、办公协同!
当前位置: 首页 > 大数据 > 正文

假设AI参与苏莱曼尼刺杀事件时的推演模拟

发布时间:2022-06-26 17:22:57 所属栏目:大数据 来源:互联网
导读:当人们都在关注世界局势的未来走向时,一家专注于将人工智能技术应用到军事领域的公司摄星智能科技有限公司(下称:摄星智能)却从专业角度出发,对整个刺杀过程进行了模拟复盘,尝试将人工智能技术加入到整个刺杀行动当中。 1. 情报获取 美军将从其谍报网(
  当人们都在关注世界局势的未来走向时,一家专注于将人工智能技术应用到军事领域的公司——摄星智能科技有限公司(下称:摄星智能)却从专业角度出发,对整个刺杀过程进行了模拟复盘,尝试将人工智能技术加入到整个刺杀行动当中。
 
 
  1. 情报获取
 
  美军将从其谍报网(线人、信号情报、网络情报)获取的信息汇总到 AI 系统,通过技术手段进行甄别、筛选,最终得出结论:苏莱曼尼将于 2020 年 1 月 3 日 1 时左右抵达巴格达国际机场。
 
  2. 战法制定
 
  以 “斩首” 苏莱曼尼为目的进行策略生成。
 
  因为事发地点位于伊拉克,属美军势力范围,所以可以直接从科威特基地(距事发地点 530 公里)派出无人机进行事前的侦查行动,配合卫星数据进行拟态环境构建,确认“战场约束空间”。
 
  使用 AI 系统分析敌我、战场信息,根据预定时间制定具体的策略,包括出发时间、无人机型号、数量、分工、搭载弹量以及路径规划等等。
 
  3. 方案执行
 
  无人机于预定的时间到达指定地点,实时监测战场环境变化(温度、风力、亮度等),根据内线和生物识别等手段确认苏莱曼尼位置,并锁定其乘坐汽车。
 
  通过 AI 系统实时生成计算无人机导弹发射策略,包括发射时间、角度、导弹数量等。使用人工智能技术协同激光制导、毫米波雷达制导,实施精准打击。
 
  4. 效果评估
 
  AI 系统控制无人机再次勘察现场,如出现生命迹象则再次实施打击,确认目标死亡之后自动返航,顺便生成一份详实的行动报告,包含了对关键行为的解释和影像声音记录等。
 
  整个推演过程,人工智能深度参与到了整个 OODA 循环(观察、调整、决策、行动)之中,它不带任何感情地完成了交代的任务,就像送了一次快递。
 
  略显 “骨感” 的现实
 
  摄星智能 VP 张亚琦对 DeepTech 补充道,目前人工智能还未被赋予如此强大的自主性,以苏莱曼尼事件为例,制定战法、最终决定发射导弹的还是人类。并且初步判定执行本次任务的 MQ-9 无人机也是通过人为远程遥控的方式控制。
 
  当被问及人工智能技术应用在军事领域有何特点时,她这样说。
 
  “军事领域所使用 AI 技术的内核同民用相比并没有本质区别,但 AI 想要在军事领域成功应用,所面临的挑战更多,要求更高”。
 
  一方面,在军事领域没有那么多的数据可以供给模型训练。比如当只有几张模糊的图片时,如何提高识别的准确度是非常重要的工作和很大的挑战。
 
 
  张亚琦说,由于人工智能技术真正兴起时间尚短,所以我国积累的真实作战数据几乎为零。而想要让人工智能参与到决策之中,需要海量的数据进行训练。
 
  举个例子,在实验室中,我们可以设定有限的边界,然后给出相应的参数,计算机可以给到我们满意的结果,类似于红色警戒等策略型游戏中的 AI 模式。
 
  但现实是非常复杂的,战场也是瞬息万变,一方面武器装备不可计算,另一方面人 / 人心更不可计算,我方不可计算,敌方更不可计算。以目前的水平,计算机所能给出的战法其实仅供参考,只有当战场棋盘上的所有棋子都支持 AI,计算机才能给出最优解。而这种情况的出现,需要现有科技水平有一个质变。
 
  2019 年发布的《人工智能安全标准化白皮书》中得出了同样的结论:
 
  当前人工智能产生突破的领域主要是专用人工智能,即弱人工智能。它缺乏自主意识,不能真正实现概念抽象、推理决策和解决问题。
 
  人工智能正处于 “不能实用” 到“可以实用”的技术拐点,距离 “很好用” 还存在可解释性、泛化、能耗、可靠性、鲁棒性(健壮性)等诸多瓶颈。
 
  “人工智能”+ 武器
 
  目前,在将武器智能化这条路上,已经引发了大国间的军备竞赛。
 
  这类武器一般称为自主武器,也称“杀手机器人”,指在无人干预的情况下独立搜索、识别并攻击目标的一种武器。能够拦截来袭导弹、炮弹的防御类武器可以看作自主武器的雏形。
 
  读到这里,也许你的脑中会浮现出一些科幻片中的角色,如变形金刚、终结者、奥创等等。
 
  但现实中,碍于种种因素,这些杀手机器人的样子可能并不像人,但杀起人来毫不逊色。
 
  对于自主武器,国际上存在很大的争议。
 
 
  2018 年 7 月,特斯拉 CEO 埃隆 · 马斯克领衔 2000 多名 AI 专家签署了一项协议,该协议的核心目的只有一个:承诺永不发展致命的 AI 武器系统。
 
  2019 年 3 月,联合国发起了一项在法律层面 “禁止全自主武器” 的讨论,但包括俄罗斯、美国、英国、澳大利亚、以色列在内的五国政府均反对这一提案。
 
  致命的吸引力
 
  尽管国际舆论禁止自主武器的声音不绝于耳,但开发自主武器所带来的好处却让个别国家难以割舍。
 
  假如一支步枪,每秒钟可以发射 10 发子弹。那么它由人类控制和 AI 控制将完全不具备可比性,AI 一秒内可以朝 10 个不同的方向分别开一枪,并且精准命中。而人类……
 
  对于 AI 来说,这不过是一场游戏,而对于人类来说却是流血牺牲。
 
 
  AI 武器如此重要,没有国家愿意被落在后面,既然无法全面禁止,就只能选择全面开发。
 
  美国兰德公司一份 2018 年的报告中举了一个例子,认为 AI 技术的发展甚至可能动摇大国之间的核战略平衡。
 
  例如,一个国家要发展出定位和锁定敌方所有核武发射器的能力,在技术上极具挑战性,但这项能力却能产生出巨大的战略优势。
 
  这个例子中针对核武的实现难度可能较高,但如果将 “核武” 换成敌方防御薄弱军事设施或作战部队,这不仅是一个可行方案,而且是多少国家梦寐以求的能力。
 
  不管如何,人工智能技术的发展早已引发了新一轮的军备竞赛,并且其成果将在下一次大范围战争中展露。
 
  最后,给大家看一段来自 Corridor 恶搞波士顿动力的视频,能同人类并肩作战的机器人,离我们或许并不遥远。希望技术的进步能为人类带来福祉,而不是毁灭。
  

(编辑:开发网_开封站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读