军事评论

坦克骚动。 五角大楼打算为装甲车配备人工智能

24

资料来源:qz.com


矛盾的ATLAS


去年年初,美国军方震惊了世界 新闻 关于ATLAS(高级目标和致命性辅助系统)系统的开发,该系统旨在将作战行动提高到新的自动化水平。 这项倡议在普通百姓和开明的军事专家中引起了不同的反应。 大多数责任归咎于开发商(军事C5ISR中心和国防部的武器中心),为使他们回音ATLAS,他们在名称中包括了“致命性”和“改进的目标指定”两个术语。 害怕 故事 他们说,关于叛逆机器人,美国人批评了陆军的主动权,这违反了战争伦理。 特别是,许多人都提到了五角大楼指令3000.09,该指令禁止将开火权转让给自动化系统。 抗议者称,将人工智能和机器学习集成到地面车辆中可能导致平民和友军的轻率伤亡。 评论家中有相当受人尊敬的科学家-例如,加州大学伯克利分校的计算机科学教授Stuart Russell。


经典 坦克 据美国军方说,它已经过时,需要早期自动化。 资料来源:htstatic.imgsmail.ru

开发人员相当合理地解释说,ATLAS与人类自第一个“终结者”以来就一直梦想的假想“杀手机器人”无关。 该系统基于使用各种传感器系统的目标搜索算法,选择最重要的传感器并向操作员告知有关信息。 现在在美国,带有集成式ATLAS系统的M113装甲运兵车正在接受测试。 对于武器的操作员而言,人工智能算法不仅可以在屏幕上显示最危险的目标,而且还可以推荐弹药的类型,甚至可以推荐击发次数,以确保战败。 根据开发人员的说法,射手的最终决定权仍由射手决定,由射手负责结果。 装甲版ATLAS的主要任务是提高对潜在威胁的反应速度-平均而言,坦克(BMP或装甲运兵车)使用自动助手以三倍的速度向目标开火。 自然,装甲车可以更有效地与目标群协同工作。 在这种情况下,人工智能会按照坦克危险的顺序迅速选择目标,自行引导武器并推荐弹药类型。 自XNUMX月初以来,具有集成ATLAS系统的各种装甲车已在阿伯丁试验场进行了测试。 根据工作结果,将决定进行军事测试,甚至通过类似的决定。 武器.

坦克骚动。 五角大楼打算为装甲车配备人工智能
在香港仔试验场测试ATLAS组件。 图为着陆舱​​M113。 资料来源:c4isrnet.com

坦克现在是战场上最保守的目标之一。 他们中的许多人几十年来一直没有根本改善,就技术发展而言,还停留在上世纪70-80年代。 通常,这种惯性与坦克在各个国家的广泛使用有关。 为了使数以千计的装甲部队现代化,需要巨大的资源。 但是反坦克的手段正在飞跃发展。 一个很好的例子是当前纳戈尔诺-卡拉巴赫的冲突,当时土耳其和以色列的无人机对亚美尼亚坦克极为有效。 如果我们不考虑人员伤亡,那么计算这种反坦克武器的价格/效率比将使它们成为战场上的国王。 当然,ATLAS不能抵御空中威胁,但它可以作为预警工具,对ATGM机组人员或单枚榴弹发射器等坦克危险目标进行预警。


这些是项目融合概念作者考虑的潜在目标。 资料来源:defencenews.com

五角大楼认为ATLAS系统不是单一的军事结构,而是大型项目融合的一部分。 这项举措应使部队意识进一步提高。 通过机器学习,人工智能以及无人机在战场上空前的饱和,美国人希望能够认真提高其部队的作战能力。 关键思想并不新鲜-将战场上的所有物体与共同的信息结构连接起来并数字化周围的现实。 到目前为止,由于缺乏与“邻居”的数据交换技能,ATLAS尚未完全包含在Project Convergence中,但是在将来,坦克的人工大脑将成为一种共有财产。 顺便说一下,在该项目的商业广告中,中国和俄罗斯被指定为明确的军事目标。

对电子产品不信任


美军已经对武装机器人系统产生了负面印象。 2007年,三个装有M249机枪的小型履带平台SWORDS(“特种武器观察侦察侦察系统”的缩写)被派往伊拉克。 尽管它们不是完全自动驾驶的车辆,但他们设法在巡逻巴格达的街道时,周期性地乱动机枪枪管,吓scar士兵。 在五角大楼看来,这似乎是不可预测的迹象,被追踪的机枪手被慢慢送回家。 2012年发布了一项指令,指出自动和远程控制的武器系统不应自行射击。 正式而言,ATLAS的开发完全在此条款的框架内进行,但是关于创新的问题不少。 一些专家(特别是宾夕法尼亚大学政治学助理教授迈克尔·霍洛维茨(Michael S. Horowitz))指责过分简化实现目标的过程的新颖性。 实际上,这种搜索和目标指定的自动化水平将战斗变成了枪手世界之类的普通游戏。 在ATLAS制导系统中,优先目标以红色突出显示,警报声响起,并且该技术会尽可能激发人开火。 在极端的战斗条件下,几乎没有时间来决定射击,然后还有一个“智能机器人”的鼓励。 结果,战斗机根本没有时间认真评估情况,并且在不了解情况的情况下开枪射击。 有必要评估拍摄后ATLAS如何正确选择目标。 这种方法在多大程度上符合道德规范,并且符合臭名昭著的美国指令? 顺便说一句,微软已经设法受到公众的谴责,因为这种头盔式目标指定系统可用于军方,甚至包括抵制用户。 在美国,关于机器人检测和制导系统的争论已经很多年了。 举个例子,批评家举了一些例子,说明在公共道路上自动驾驶仪系统的错误,这些错误已经导致人员伤亡。 如果即使在行驶了数百万公里之后,自动驾驶仪也没有变得100%可靠,那么我们可以说完全新鲜的ATLAS,它可以推动油轮向120 mm弹丸的无辜人员射击。 现代战争之所以如此流血,正是因为军方有机会远程杀人,躲在可靠的屏障后面。 提到的纳戈尔诺-卡拉巴赫的例子再次证实了这一事实。 如果战斗人员也失去了严格评估目标参数的机会(这正是ATLAS的目标),那么受害者可能会更多,谋杀的责任已经部分转移到了机器上。

最后,在和平主义者中,反对ATLAS型系统的主要论点是实际上没有禁止自动射击的禁令。 现在,只有五角大楼的道德要求(也有很多保留)禁止完全自动化谋杀过程。 随着ATLAS的推出,这将完全没有技术障碍。 美军是否能够放弃这样一个有前途的机会,以进一步加快对威胁的响应时间,并使其士兵免受攻击?
作者:
24 评论
信息
亲爱的读者,您必须对出版物发表评论 注册。

Ужезарегистрированы? 登录

  1. 沙发巴蒂尔
    沙发巴蒂尔 5十一月2020 06:10
    +4
    有必要评估拍摄后ATLAS如何正确选择目标。


    读完系统名称-ATLAS后,我立即想起了“ Taxi-2”中带有相同名称的系统操作集。

    1. 古尔祖夫
      古尔祖夫 5十一月2020 13:42
      +1
      我记得这个https://youtu.be/f8AKH_wPmMc
      1. 叛乱
        叛乱 5十一月2020 14:14
        +3
        Quote:古尔祖夫
        我记得这个https://youtu.be/f8AKH_wPmMc

        摄像机把球和裁判的光头混淆了

        现在就假发他,chtol放弃,以便不发光并且不会误导AI?
      2. 驾驶者
        驾驶者 5十一月2020 21:50
        +4
        Quote:古尔祖夫
        我记得这个https://youtu.be/f8AKH_wPmMc

        我还记得关于自动坦克“多边形”(1977)的动画片,在那里坦克袭击了那些害怕的人。 看! 好
  2. 嘉52
    嘉52 5十一月2020 06:49
    +4
    有必要评估拍摄后ATLAS如何正确选择目标。

    什么会改变? 南斯拉夫时代的美国飞行员与难民完全摧毁了拖拉机,在伊拉克他们定期烧毁了英国勇士 笑 “先枪后问”是老美国人的原则
  3. 维克多·谢尔盖夫(Victor Sergeev)
    维克多·谢尔盖夫(Victor Sergeev) 5十一月2020 07:40
    0
    当美国人变得乏味时,军队中充满了败类,您必须依靠人工智能。 问题在于,在AI发明之前,它已经走了多远,而且在不久的将来不会出现,因为现代计算机系统仍然很烂。
    1. PDR-791
      PDR-791 5十一月2020 12:40
      +4
      让我告诉你程序员最重要的秘密。 不会创建AI。 因为在创建之日,所有程序员将被闲置。 他们需要它吗? wassat
      1. 托马斯·N。
        托马斯·N。 5十一月2020 15:01
        +2
        Quote:NDR-791
        让我告诉你程序员最重要的秘密。 不会创建AI。 因为在创建之日,所有程序员将被闲置。 他们需要它吗? wassat

        创建AI的不是程序员,而是《回到未来》中的经典“疯狂科学家”,如Emmett Brown。 笑 而且,他的失业肯定不会影响他是否需要名气或“祝福”人类。 理想主义者和梦想家是最“危险”的人,是的!
        1. 维克多·谢尔盖夫(Victor Sergeev)
          维克多·谢尔盖夫(Victor Sergeev) 5十一月2020 19:12
          +1
          与爱因斯坦相比,现代超级计算机只是愚蠢的人,所以人工智能需要一台计算机。
          1. MoyVrach
            MoyVrach 5十一月2020 20:05
            0
            引用:Victor Sergeev
            与爱因斯坦相比,现代超级计算机只是愚蠢的人,所以人工智能需要一台计算机。

            这些知识来自哪里?
            1. 维克多·谢尔盖夫(Victor Sergeev)
              维克多·谢尔盖夫(Victor Sergeev) 6十一月2020 09:32
              0
              超越任何超级计算机的能力的大脑。 一个人和其他任何人的大脑所具有的能力,都无法通过任何现代计算机来完成。 到目前为止,计算机只是一个复杂的计算器,不能真正思考,即使用潜意识时人脑可以发出的信息,没有计算机可以做到,至少现在还没有。 有这样一个词“直觉”,正是她定义了当前的思维,智慧,比较能力,根据过去的经验以及对未来的预期得出结论。
              1. MoyVrach
                MoyVrach 6十一月2020 17:06
                0
                哦。 完全由。
                潜意识可以与Etty,Lochnest怪物,Bermuda Triangle等组合在一起。
                题外话。 我将以我的知识发光,我将说“脑和脑”问题在哲学中很普遍。 与之相关的是,我们将绕过这一面,但我们将以一种简单的方式进行讨论。 大脑是中枢神经系统的器官,就像活生物体内的其他器官一样,是为生存而设计的。 (信不信由你,有生命的世界的代表,在生命的某个时期,当其履行其职能时会吞噬掉不必要的大脑)。 让我们回到主题。 大脑可以很好地处理其主要任务以及计算机(软件和硬件)。 大型天文台的同一台超级计算机可以在几秒钟内处理与人类一年内无法收到的太字节级信息一样多的信息。
                1. 维克多·谢尔盖夫(Victor Sergeev)
                  维克多·谢尔盖夫(Victor Sergeev) 6十一月2020 17:56
                  -1
                  您和作者的所有麻烦是,您绝对不了解大脑对信息的处理方式以及计算器与人脑之间的区别。 首先,确定一个人梦dream以求的信息的大小(发生在一瞬间),然后尝试确定您需要处理多少信息才能进行。 但是最重​​要的是:智力不应该处理和计数,而是理性,要发挥创造力,能够预见情况,即使没有遇到这种情况,人的大脑也会在一微秒(直觉)内做到,而计算机在原理上不能做到这一点,因为缺乏信息。 您是否至少想象一个人现在如何看图片以及大脑现在从事什么样的工作?
                  您知道,在我们的军事学校里,有一种胡椒粉和您几乎是同一件事:计算机比人脑拥有更多的记忆,这很有趣。
                  1. MoyVrach
                    MoyVrach 6十一月2020 19:35
                    0
                    引用:Victor Sergeev
                    首先,确定一个人梦dream以求的信息的大小(发生在一瞬间),然后尝试确定您需要处理多少信息才能进行。

                    出于所有应有的尊重,但是梦中的信息超出了我对世界的理解。 梦中的信息甚至与Lochnee怪物都不是Etty,而是UFO和超心理学,因为按照定义,信息是传递信息。
                    引用:Victor Sergeev
                    但是最重​​要的是:智力不应该处理和计数,而是理性,要发挥创造力,具有预见情况的能力,即使没有遇到这种情况,人的大脑也会在一微秒(直觉)内做到,而计算机则不能做到这一点,因为缺乏信息。

                    有些游戏带有一组清晰的规则,如果将这组规则加载到神经网络的某个算法中,那么经过几个小时的“自学”,该算法将击败其他人中的最佳玩家。 不一定是国际象棋或“走”,而是其他任何东西。
                    引用:Victor Sergeev
                    您是否至少想象一个人如何看图片,并且此时大脑进行什么样的工作?

                    到现在为止,有些人认为一个人可以感知和处理各种类别的信息,并且如果他以前收到的信息对他来说是熟悉的并且可以确定,那么就没有问题。 实际上,有99.999%的成年人看不到,但会认出他以前学到的东西。 一个人不能感知到超过某个阈值,例如短期记忆量 七个要素 ,与此相关的是一堆注意力不集中的盲现象。
                    引用:Victor Sergeev
                    您知道,在我们的军事学校里,有一种胡椒粉和您几乎是同一件事:计算机比人脑拥有更多的记忆,这很有趣。

                    pechalka 哭泣
                    1. 维克多·谢尔盖夫(Victor Sergeev)
                      维克多·谢尔盖夫(Victor Sergeev) 6十一月2020 19:57
                      -1
                      在不需要计算数学公式,但是一半信息不明并且需要以直觉为代价进行填充的情况下,您的计算机会击败人吗? 计算机不具备学习能力,只能计算解决方案,仅此而已,因此它需要源代码。 现在是关于梦的梦:此刻,一个人的意识消失,潜意识被切入,一个人在一秒钟内看到几十个甚至不是数百个梦,每个梦的大小都相当于一部普通电影的大小。
                      我仍然建议您研究一个人如何查看和折叠图片的主题,您会喜欢它,而计算机则无法做到。 大脑同时做一百件事,控制身体(一堆器官),处理传入的信息。 只是去(平稳地,清晰地),大脑以微米的精度控制了十几条肌肉,只花了其很小一部分功能,计算机科学家就无法创造出类似的东西。
                      让机器人系统进入战场并会失败,因为与此同时会出现大量无法预料的情况,大脑会考虑到这一点,立即做出调整(就像他们说的那样,一个人先做,然后在机器上意识到他的所作所为),然后计算机将冻结或开始犯下严重的错误。 ,简化了任务并遵循了模式。
                      1. MoyVrach
                        MoyVrach 6十一月2020 20:35
                        0
                        引用:Victor Sergeev
                        在不需要计算数学公式的情况下,但是在信息的一半未知的情况下,您的计算机会打败别人吗?

                        呃……您是说一个人更有可能只用他们所需信息的一半来做出正确的决定吗? 那么这不是一半,而是足够的信息来做出正确的决定。
                        引用:Victor Sergeev
                        计算机不具备学习能力,只能计算解决方案,仅此而已,因此它需要源代码。

                        没有。 正如我所写,而且,“自学习”程序能够击败根据预定义算法和游戏情况数据库计算的程序。
                        引用:Victor Sergeev
                        现在关于睡眠:此刻,人的意识关闭,潜意识被切入,

                        据我阅读并据我了解。 在科学上,原则上不使用“潜意识”一词,而对其的任何使用都决定了科学论文的严肃性。
                        引用:Victor Sergeev
                        一个人在一秒钟内看到数十个(甚至不是数百个)梦,每个梦都相当于一部普通电影的大小。

                        有一个神话-处于危急状况的人会以加速的方式感知,因为他的时间似乎变慢了。 我们决定检查实验。 在实验中,人们确实在主观上证实了这一点。 在实验过程中,直到要求他们区分屏幕上的某些内容之前,它们都以可能在测试状态下感知的速度变化。 结果:该假设未得到证实。
                        引用:Victor Sergeev
                        我仍然建议您研究一个人如何查看和折叠图片的主题,您会喜欢它,而计算机则无法做到。

                        熟悉您的消息来源会很有趣。
                      2. 维克多·谢尔盖夫(Victor Sergeev)
                        维克多·谢尔盖夫(Victor Sergeev) 7十一月2020 12:57
                        -1
                        在缺乏信息的情况下,一个人将做出更正确的决定并开始执行它,随着情况的变化同时更改动作,计算机将愚蠢地冻结,并且一旦程序员无法预见的不可预测的情况发生,计算机将开始给出最终的结局。 在简单的情况下,比较好,标准,但是战争是很多无法预测的,尤其是在对手平等的情况下。
  4. Sckepsis
    Sckepsis 6十一月2020 22:45
    0

    问题是在发明AI之前,它能走多远

    但这不是问题,而是救赎。
  • 瓦西里·基里亚诺夫(Vasily Kiryanov)
    +2
    美国的油轮确实需要人工智能。 作为假体。
  • Undecim
    Undecim 5十一月2020 14:12
    +1
    现在在美国,带有集成式ATLAS系统的M113装甲运兵车正在接受测试。
    不仅如此。

    ALAS-MC塔安装在General Dynamics Griffin机箱上,用于测试ATLAS系统。
  • 托马斯·N。
    托马斯·N。 5十一月2020 14:54
    0
    “美国目前正在用集成的ATLAS系统测试M113装甲运兵车。”
    由照片中的民用设备判断,标题为“在阿伯丁试验场上对ATLAS组件进行测试。照片显示了M113部队室。资料来源:c4isrnet.com”这仅仅是在M113 APC的方便宽敞的部队室中组装的测试台。 我认为M113不会配备此系统。
  • 心情
    心情 5十一月2020 16:50
    +3
    禁止将开火权转让给自动化系统


    从什么时候起被禁止? 始终允许。 许多平民和动物同时丧生。 但这并没有阻止任何人。 而且,这些系统过去比现代系统笨重得多。 以相同的地雷为例。 该地雷在一个士兵,一个平民和一个动物身上工作。 在军舰和平民身上。 她不在乎。 而且没有人要求操作员通过摄像机选择矿井的目标。 Mina与射击机器人没有什么不同-它以相同的方式杀死。 然后大声喊叫。
  • Slon_on
    Slon_on 6十一月2020 09:25
    0
    是的,AI会被卡在艾布拉姆斯河中,而炮弹仍然会被nigraJon扔进大炮吗?
  • Maksim_ok
    Maksim_ok 14十一月2020 03:54
    0
    “批评家中有相当受人尊敬的科学家,例如,加州大学伯克利分校计算机科学教授斯图尔特·罗素。” 这所大学是著名的半疯子左派温床。

    “他们中的许多人几十年来都没有根本改善,就技术发展而言,还停留在上世纪70-80年代。”这取决于哪种坦克。 对于T-72B(1985年)和T-72BA(1999年)来说确实如此,但是以Leopard A7和基本Leopard-2为例,它们之间没有任何区别吗? 如果您认为是在小学阶段,则不会。 有一个带有大炮的炮塔,还有铁轨。 名称几乎相同。 但是实际上,这些机器具有不同的功能。 首先,关于OMS和信息组件。 卫星导航,TIUS,战斗控制系统和网络功能,然后是新的枪支,弹药和瞄准具。

    对于ATLAS,绝对需要这样的系统。