第三次军事革命:不应装备机器智能

48

资料来源:armflot.ru

二十一世纪的主要趋势


尽管“人工智能”(以下简称AI)一词含混不清,但长期以来,创造了在世界上众多军队中出现高生产力和自学式战斗系统的所有先决条件。

如果不存在人工智能,它仍然必须被发明。 现在,几乎在人类生活的所有领域,每秒都会产生大量信息,而这些信息根本就不需要处理。



军事事务绝非例外-回顾纳戈尔诺-卡拉巴赫的冲突足以了解军事行动信息饱和的真实规模就足够了。

照片,视频和雷达数据流以及音频和文本消息流已成为该领域的主流。 只有现在我们才能改写著名的表达

“谁拥有信息谁拥有世界”

进入现代

“谁能快速分析信息拥有的世界。”

对于“大数据”(或大数据)的操作处理,需要非常严格的技术。 例如能够在无需操作员干预的情况下进行自学习的人工神经网络。 神经网络的一个重要优点是能够根据原始训练代码中不存在的数据识别模式。

对于军方而言,人工智能处理不完整,“嘈杂”或失真的数据的潜在能力尤为重要。 这就是为什么深度学习神经网络正在等待视图智能系统快速分析视频和摄影材料的原因。 正如军事部门所指出的那样,人工智能可以在几秒钟内解决数十个解码器花费数月的工作。


资料来源:i.pinimg.com

但是,即使是现在,对数据集进行简单分析似乎仍不足以用于军事行动-这需要

“预测可能的动作”

и

“预测响应”

潜在目标。

根据这些“结论”,操作员将决定开火。 这将严重加速进攻行动的进程。

例如,几年前,在“持久自由行动”中,MQ-1“捕食者”无人机进入了敌方设备护卫队。 但是,当操作员正在评估从属关系并决定发射火箭时,设备离开了受影响的区域。 这远非唯一的例子。

在这种情况下,使用AI可以快速预测罢工的前景和时机。 但是这里也有陷阱。

红十字会委员会对将人工智能引入无人驾驶汽车以及(最重要的)人类对其信任的程度表示严重关注。 例如,仅基于神经网络的视频信号分析,是否可以可靠地将在道路附近挖掘的人识别为简易爆炸装置操作员?

现在鼓手 无人机 很多时候没有意识到战场上发生的事情的真实性(Playstation 心态)。 如果人工智能帮助他们呢?

已经明显简化的销毁任务将变得更易于执行。

自动化!


技术和战略挑战迫使世界大国逐渐将其军队转移到机器人技术的轨道上。

例如,在美国,“第三次补偿战略”承诺将武装部队变成军队。 机器人 已经三十年过去了。 十年后,五角大楼每三架飞机中就有一架是无人驾驶的。

俄罗斯也在努力跟上。 他们计划在未来几年中将数十种新型遥控武器投入军队。 但是,美国和俄罗斯都仍然缺乏成熟的由AI控制的侦察和打击系统。 这主要是由于责任危机。 如果仍然可以忍受第一类错误,即错误地消除了对敌人的打击,那么第二类错误将使一切变得更加复杂。 在后一种情况下,车辆要么决定“友善开火”,要么摧毁平民,即犯了战争罪。


资料来源:popmeh.ru

在这种情况下,尚不清楚是谁负责这种行为,是软件开发人员还是命令使用该系统的指挥官。

在汽车工业中也存在类似的情况,几十年来一直梦想着完全自动驾驶的无人机。 甚至还制定了自动化级别的分类,这非常适用于军事领域。

在零水平时,汽车是有条件的UAZ-496,其中一切都在驾驶员的控制之下,并且没有机电助力器-ESP,ABS等。

在最高的第五级,轮式无人机甚至没有方向盘(或作为付费选件安装)。 并且在所有情况下,机芯均由自动驾驶仪控制。 目前,只有日本本田能够认证XNUMX级串行自动驾驶仪。

这种“有条件的自动化”技术无法在危险情况下接管控制。 在正常情况下,它并不总是有效。 交通堵塞驾驶员系统会自动将车辆驾驶在交通堵塞中,将其保持在高速公路的车道内并进行超车。 您可以将手从方向盘上移开,但不能将视线移开道路-相机在注视着。 第三级自动驾驶仪非常昂贵,并且使汽车的总成本增加了一半半。

应当记住,自动驾驶仪已经可以在批量生产中完全实现。 他们将真正减少道路交通事故的发生。 但是,由于人工智能的错误(包括致命错误)造成的法律和道德问题使汽车公司陷入了停滞。

AI不应该武装


在军事领域,完全自主的战斗系统的发展情况也远非理想。

这甚至不是问题的技术方面。

一方面,持怀疑态度的专家指出了基于神经网络的自我学习系统提供先发制人打击的潜在能力。 例如,人工智能将在敌人身上看到真实或可察觉的脆弱性-为什么这不是进行第一次解除武装打击的理由? 除此之外,所有“人工大脑”都容易竞争,缺乏批判性思维的要素,这也不会增加人的信心。

总体而言,兰德公司(RAND Corporation)的分析人员在任何情况下都不应敦促现在或将来都将军事战略决策信任人工智能。 尽管仍然有可能与被AI误杀的数名非战斗人员和解,但如果将其应用于核威慑力量,一切将更加悲惨。

操作战术并非一切都那么简单 武器 AI控制。

让我们回到纳戈尔诺-卡拉巴赫(Nagorno-Karabakh)的录像中,该录像清楚地说明了冲击无人机相对于传统武器的技术优势。 在这里,每个人都知道,虽然非常完美,但天空中只有遥控机器。

如果罢工是由完全自主的Bayraktar发起的,公众的反应是什么?

尽管手握武器,什么时候AI可以活到全世界杀人?

问题的道德方面尚未在这里解决。 而且在不久的将来不太可能解决。

第三次军事革命:不应装备机器智能
资料来源:mil.ru

一般来说,军队中的机器人当然是不错的。

它们使您可以从敌人的直接火力中撤出士兵,将所有工作转移到远程控制的战斗部队。 减少损失和成本。 战争似乎变得更加人道了。

军事领域的完全自主机器人或“致命自主武器系统”与人性和减少损失根本不相关。 深度学习神经网络使战争更加迅速和昂贵。 实际上,这正是前两次军事变革中的火药和核革命所确保的。

许多参与国家国防项目的民营公司都知道这一点。

于是,2018年,谷歌退出了价值超过7,5亿美元的高利润Maven项目。 来自硅谷的专家与 DARPA 合作开发了一个程序,用于处理来自众多情报机构的视频和照片信息阵列 无人驾驶飞机. 数据由神经网络处理。 并按照销毁的优先顺序为操作员提供了“目标库”。 谷歌出 故事... 现在,DARPA正在尝试独自应对。

人工智能在军队中的一个重要方面是其在信息战中的使用。

我们可以肯定地说,在不久的将来,俄罗斯和(在更大程度上)中国在发展打击人工智能方面的更多启示只会从美国倾泻而出。 如果不能说服国内公众需要自主的军事思想,那么我们将受到外部敌人的恐惧。 五角大楼自古以来就以这种逻辑而闻名。 他们说他们已经在全力致力于AI了,在这里我们无法应付自己的道德。

最后,对作战AI威胁的不对称反应看起来很有希望。 如今,从全能的人工智能眼中掩盖对象甚至故意欺骗的技术正在获得发展。

到目前为止,当信息在银盘上传送时,AI在和平的条件下可以很好地工作。

使用不完整且嘈杂的数据非常困难。 因此,用故意纠正的数据误导机器智能的尝试看起来很合逻辑。 当武装AI的响应时间以秒为单位计算并且不依赖于人的意见时,这种错误信息可能会导致难以预测的后果。

最好以友好的方式取消第三次军事革命。

或制定联合限制措施,以在军事领域发展和使用人工智能。 您是否可以在核武器方面做类似的事情?
我们的新闻频道

订阅并了解最新新闻和当天最重要的事件。

48 评论
信息
亲爱的读者,您必须对出版物发表评论 授权.
  1. +3
    18 March 2021 05:11
    尽管手握武器,什么时候AI可以活到全世界杀人?

    这个问题的道德方面在这里仍然没有解决。

    那些。 当其他人在空中杀死人时-从道德的角度来看这是正常的吗?
    1. 0
      18 March 2021 05:44
      报价:库存外套
      那些。 当其他人在空中杀死人时-从道德的角度来看这是正常的吗?

      当然不是,但是这里确实存在道德问题! 我们只是现代人,对现代道德有了“沉重负担”。 这很好。 hi
      1. DSK
        0
        18 March 2021 18:56
        引用:A. Privalov
        这很好

        您好!教授! 当然很好,但是AI消除了这种``负担''。 机器人将是极端的,您将如何处理 没有灵魂 “铁片” ...
        1. +4
          18 March 2021 20:33
          对你来说,你好。 hi
          我不是教授,而是助理教授。

          不需要一块铁。 一小块铁没有耻辱。 那些没有严重理由决定使用它们的人将接受说唱。 只是今天,人类没有使用这种武器的经验,却为自己构筑了一个甜美的童话。 随着时间的流逝,一切都会安定下来。 也许一旦战斗OV就被禁止,因为有些不人道,这是不人道的。 也许某些事情会受到限制,例如,机器人将进行培训,而对人开火的决定将由人来决定。 等等。 同样,也会有错误,会发生各种法律和哲学上的冲突。 我们只能希望,使用AI的人类不会将自己陷入某种陷阱,科幻小说家为此写了很多篇文章。
    2. 0
      19 March 2021 23:05
      报价:库存外套
      尽管手握武器,什么时候AI可以活到全世界杀人?

      这个问题的道德方面在这里仍然没有解决。

      那些。 当其他人在空中杀死人时-从道德的角度来看这是正常的吗?

      当然,如果这不是自卫或军事行动,从道德的角度允许杀人时,这是不正常的。 但是,首先,凶手(如果他是个理智的人)知道责任可能在这个世界(在社会之前或在他自己之前)或在另一个世界中来临,也许在上帝面前,其次,凶手有危险,受害者”也可以杀死杀手。 这些都是限制因素。 而且,那些在线上看到的人也知道,杀手很可能会受到惩罚(即使他疯了)。 如果杀手是人工智能,首先,没有特定的限制因素,其次,在线观看者也了解到,某行为是在人类面前不受惩罚地进行的,但与此同时,这是故意的,那就是谋杀某人。人是有意识的(不是陨石)并且不受惩罚... 在人们自己看来,人类生命的价值正在逐渐丧失。 因此,道德改变了。 我们都会知道,有一个实体可以自行决定并根据自己的规则来决定谁住,谁不住,这可以自行决定(人工智能是自我发展的)。 通常,尚不清楚的是,接受了杀人任务(没有计划性的杀人禁令)的认可机构是否有能力救助受害人,例如投降。 这些远非关于使用人工智能作为杀人武器的所有问题。
      我认为,现在应该是联合国至少任命一个委员会制定规则和规范的时候了(机器人或AI不应在没有他人参与的情况下决定杀害一个人)或完全禁止AI作为杀死人和其他生物的武器...
  2. +4
    18 March 2021 05:31
    对于“大数据”(或大数据)的操作处理,需要非常严格的技术。
    伟大的免责声明。 几乎按照弗洛伊德的说法:“大巴塔”-菲律宾语中的“大孩子”。
    当然,人类将不得不解决与人工智能有关的更多问题。 军事领域只是众多领域之一。 而且,不可能将自己限制在三心二意的限制上。 进步不再停止。 “铁马取代了农民马”(c)
    ... 1865年,大不列颠议会通过了一项法律,根据该法律,运输速度被限制为每小时6公里,一个人不得不在车前行走,挥舞着红旗。 最后一点在1878年被废除了。 根据其他消息来源,“红旗”规则直到1896年才被取消,同时将时速限制提高到23 km / h,并取消了由三人组成的乘员组(驾驶员,助手和消防员)的要求。轻型车辆(不超过3吨的整备质量)无马车辆,即汽车和机车之间的差异已得到法律承认,这推动了英国汽车工业的发展。 车速限制在1903年再次提高,直到1896年,英国才取消了1903年和1930年的法律。
  3. +1
    18 March 2021 05:48
    最好以友好的方式取消第三次军事革命。
    很好,但是a ...
    或制定共同的限制性措施,以在军事领域开发和使用人工智能
    那是不可能的。 自动化系统的开发和实施带来了明显的优势。 控制AI的创建过程比创建和分配核武器要困难许多倍。
    我认为在不久的将来将没有朝着这个方向达成协议。 如果美国和俄罗斯尚未签署并批准《渥太华杀伤人员地雷条约》 ...
  4. 0
    18 March 2021 06:19
    亚里斯多德应该为一切负责。 这一切都是从他的三段论开始的。
  5. +12
    18 March 2021 06:24
    将军们疲惫地笑了笑。
    他们互相看着对方,发出欢呼。 大决战获胜,撒但的部队被击败。
    但是他们的电视屏幕上发生了一些事情。
    - 如何! 这个……这个……-开始麦克菲将军,并保持沉默。
    格雷斯在战场上沿着弯曲的破碎金属堆走去。
    将军们保持沉默。
    格蕾丝碰到了被毁容的机器人。
    机器人在整个热气腾腾的沙漠中轰动。 更新了扭曲,燃烧,熔化的金属片。
    机器人站起来了。
    “麦克费,”最高统帅维特尔小声说道。 -点击某物-让他们或某物跪下。
    将军按了一下,但是遥控器不起作用。
    机器人已经飞上了天堂。 他们被耶和华的使者包围,机器人坦克,机器人步兵和自动轰炸机越来越高。
    -他把他们带到天堂! Ongin歇斯底里地大叫。 -他带机器人去天堂!
    “有一个错误,”维特勒说。 - 快点! 派一个联络官……不,我们会努力的。
    随即,飞机被派出,他们冲向战场。 但是已经为时已晚:末日审判结束了,机器人消失了,上帝带着他的军队离开了家。
    1. +3
      18 March 2021 08:21
      我最喜欢的故事! :)
  6. +2
    18 March 2021 09:36
    荣耀给机器人! 杀死所有人! (c)井上织姬
    1. +2
      18 March 2021 10:36
      呃,哪一边? 实际上,这些都是出名的未来派翻译家。 笑
      1. 0
        18 March 2021 13:49
        我知道,但是织姬曾经用机器人描绘了未来的史诗…… 笑
    2. +4
      18 March 2021 15:32
      引用:Kolin

      荣耀给机器人! 杀死所有人! (c)井上织姬


      Orihime仍然保持和平,并尽其所能。
      治愈甚至复活。

      但是,如果程序员具备一切能力,那么AI还能期待什么呢?



      在伊尔库茨克飞机厂“伊尔库特”发给圣彼得堡设计局“ Electroavtomatika”总经理的信中,有人说这是一个奇怪的无名按钮,按下该按钮时,铭文“向机器人荣耀!杀死所有人” ”已显示在控制面板上。


      https://strana.ua/news/231877-slava-robotam-ubit-vsekh-chelovekov-v-rossii-pri-ispytanii-boevoho-samoleta-jak-130-na-ekrane-vsplyla-strannaja-nadpis-foto.html
    3. +1
      18 March 2021 23:27
      引用:Kolin
      荣耀给机器人! 杀死所有人! (c)井上织姬


      必须有一条法律,以便
      “杀死所有人”按钮
      把它变成红色。
      这样可以防止意外按下。
  7. +7
    18 March 2021 10:55
    在第二次世界大战中,战争罪和危害人类罪的概念将不复存在,因此,尽管存在许多缺点,但拥有大量可印刷的自动杀手的人将成为赢家。
    1. 0
      19 March 2021 23:11
      在第二次世界大战中,战争罪和危害人类罪的概念将不复存在,因此,尽管存在许多缺点,但拥有大量可印刷的自动杀手的人将成为赢家。

      然后,自主杀手会杀死获胜者,他们是否具有自主权?
  8. +2
    18 March 2021 11:16
    战争中的一个人会疲倦,失去专心,不断受到压力,可能会感到困惑,渴望复仇,只想杀死。 此外,人类的感知是非常不完美的,并且会遭受许多心理生理疾病的困扰。 但是他可以决定开火!
    但是热情洋溢,永不疲倦的机器人-哦,不,永不! 笑
    显然,当前的AI根本无法处理任务,但是在不久的将来,它将由机器人来解决所有问题。
    1. +1
      18 March 2021 23:42
      Quote:Sahalinets
      战争中的一个人会疲倦,失去专心,不断受到压力,可能会感到困惑,渴望复仇,只想杀死。 此外,人类的感知是非常不完美的,并且会遭受许多心理生理疾病的困扰。 但是他可以决定开火!
      但是热情洋溢,永不疲倦的机器人-哦,不,永不! 笑
      显然,当前的AI根本无法处理任务,但是在不久的将来,它将由机器人来解决所有问题。


      赢->
      您需要应用/使用尽可能多的机器人->
      为此,它们的生产应尽可能简单->
      最简单的AI将能够识别在世人员,但无法识别平民或战斗人员。

      结果,我们得到了人工智能的大规模杀伤性武器。
  9. +2
    18 March 2021 13:31
    开发AI很有意义。 首先,他应该向他的国家灌输绝对的忠诚。 并且,当然,最初不包括在其中开火的可能性。 按下按钮并做出决定应该始终由该人决定。
    1. 0
      18 March 2021 16:56
      他应该向他的国家灌输绝对的忠诚
      电池通过格瓦斯上电 wassat 或在可口可乐上 笑
    2. +1
      18 March 2021 23:56
      Quote:巴萨列夫
      开发AI很有意义。 首先,他应该向他的国家灌输绝对的忠诚。 并且,当然,最初不包括在其中开火的可能性。 按下按钮并做出决定应该始终由该人决定。


      操作员控制1000个机器人,
      在他的屏幕上弹出请求窗口
      “找到目标。销毁?是/否”
      操作员夹住“ D”按钮...

      现在他们使用无人机,
      运营商决定影响。
      婚礼队伍没有受到恐怖分子的袭击,反而受到了打击。

      对于军方而言,将机器人释放到保证没有“机器人”的领土上比较容易。 确定给定范围内的所有目标都被视为敌人。
      使用集束武器的类似物。

      集束炸弹所使用的任何人的良心都不会折磨,而这种新的“玩具”对于军方来说是一样的,但效果更好。 他们喜欢那个。
  10. +1
    18 March 2021 13:43
    虽然有些人在为这是否符合道德而苦苦挣扎,而另一些人却在以这种方式如何快速进入消费市场这一问题而苦苦挣扎……我什至知道谁会更快。
    1. +1
      18 March 2021 17:41
      在我们时代,当人类再次变成狼对人时,苦涩的道德感流下了一片寂静的泪水。
      1. +1
        18 March 2021 18:01
        道德从根本上说是绝对的,但是个人的道德是没有限制的。 是的。
        1. +1
          18 March 2021 18:15
          在当今的话题上,缺乏可理解的价值和观念时,谈论集体不道德行为会更正确。 absolute,终极绝对沉入了夏天。
          1. +2
            18 March 2021 18:24
            好吧……这战利品战胜了邪恶。
  11. +2
    18 March 2021 17:26
    当然,这个问题很有趣-在同一西方,他们多次就不可接受的AI武器发出了来自社会各方面的警告和预测。 即使在视频游戏中,也可以清楚地看到这一点(地平线零黎明),在没有后门的边缘,愚蠢的人遇到了小故障,将地球赶到了灭绝,并消灭了kamenyuk(嗯,有很多简化和漏洞,当然),但是最主要的是没有可靠的后门来断开连接,并且绝不足够。 某些迹象表明,在这种情况下,洋基队当然会失败,而我们仍然会看到天网。
  12. +1
    18 March 2021 17:39
    再说一遍,对于AI,神经网络如何与未来强大而强大的AI相适应是完全不可理解的。 没有人工智能,机器和算法不认为,人工智能对大众媒体有好处,为什么打扰您的同志?
  13. 0
    18 March 2021 20:20
    一些地狱般的垃圾。 完全自主的Bayraktar不会遭受任何打击,因为他们无法在太空中定向自己。 我们在哪里,在哪里飞行。 首先,一个人的位置的平庸定义问题尚未解决。 接下来,您将需要解决识别问题。 这是将几何图形详细信息选择到单独的对象中,并赋予它们自己的名称。 接下来,您将需要解决与所选对象进行交互的问题。 如果基本的技术问题还没有解决,道德方面又与它有什么关系呢?
  14. 0
    20 March 2021 10:19
    有一个明确的标准:一旦证明人工智能提供的错误决策概率远低于操作员所能达到的最小错误水平,那么就可以合理地转移人工智能决策。
  15. 0
    21 March 2021 22:05
    最好以友好的方式取消第三次军事革命


    人性会糟透了。 故事发展成螺旋形。 似乎在数十万年之后,下一位研究人员再次皱着眉头问一个问题:“谁建造了这样的金字塔?” 他们将在埋在几米厚的沙子下的我们的垃圾场中挖土,问道:“曾经有一个伟大的文明,但是它已经消失了……发生了什么?”

    发生的事情是那种贪婪,虚荣和嫉妒。 而我们迷路了。 全部。

“右区”(在俄罗斯被禁止)、“乌克兰叛乱军”(UPA)(在俄罗斯被禁止)、ISIS(在俄罗斯被禁止)、“Jabhat Fatah al-Sham”(原“Jabhat al-Nusra”)(在俄罗斯被禁止) , 塔利班(俄罗斯被禁止), 基地组织(俄罗斯被禁止), 反腐败基金会(俄罗斯被禁止), 纳瓦尔尼总部(俄罗斯被禁止), Facebook(俄罗斯被禁止), Instagram(俄罗斯被禁止), Meta (俄罗斯禁止)、Misanthropic Division(俄罗斯禁止)、Azov(俄罗斯禁止)、Muslim Brotherhood(俄罗斯禁止)、Aum Shinrikyo(俄罗斯禁止)、AUE(俄罗斯禁止)、UNA-UNSO(俄罗斯禁止)俄罗斯)、克里米亚鞑靼人议会(在俄罗斯被禁止)、“俄罗斯自由”军团(武装组织,在俄罗斯联邦被认定为恐怖分子并被禁止)、基里尔·布达诺夫(被列入俄罗斯金融监管局恐怖分子和极端分子监测名单)

“履行外国代理人职能的非营利组织、未注册的公共协会或个人”,以及履行外国代理人职能的媒体机构:“Medusa”; “美国之音”; “现实”; “当前时间”; “广播自由”;列夫·波诺马列夫;波诺马列夫·伊利亚;萨维茨卡娅;马尔克洛夫;卡玛利亚金;阿帕洪奇;马卡列维奇;哑巴;戈登;日丹诺夫;梅德韦杰夫;费多罗夫;米哈伊尔·卡西亚诺夫; “猫头鹰”; “医生联盟”; “RKK”“列瓦达中心”; “纪念馆”; “嗓音”; 《人与法》; “雨”; “媒体区”; “德国之声”; QMS“高加索结”; “内幕”; 《新报纸》