明天和战斗机器人后的第二天
机器人技术是目前最有前途的军事技术分支之一。 迄今为止,已经创建了能够执行各种任务的自动化设备。 诚然,目前的无人驾驶飞机和直升机,以及地面履带车辆,就其所有能力而言,仍然无法完全自主工作。 在大多数情况下,自主性仅限于某些不需要(正如他们所说)高智能的动作:移动到给定点、跟踪空间、搜索在一般背景下脱颖而出的物体等。 至于关于航路点或关于攻击检测到的目标的决定,它们仍然由系统操作员做出,即男人。 军队全自动运行 机器人 迄今为止,它仍然是科幻小说的“财产”,科学家和工程师刚刚在这一领域迈出自信的第一步。 机器人技术的发展不仅会影响自动化系统的能力,还会影响人类社会的其他方面。
在科幻小说中,经常考虑一个人和一个拥有一个或另一个层次的人工智能的机器人相互作用的严肃问题。 目前的情况表明这个问题逐渐过渡到现实生活中。 出于这个原因,现在已经有一些人和公共组织试图预测进一步的发展,并在可能的情况下采取适当的措施。 不久前,人权组织人权观察(HRW)发布了一份关于这个问题的报告。 失去人性的工作:反对杀手机器人的案例(“失去人性:反对杀手机器人的论点”)讨论了使用全自动战斗机器人的前景,以及报告的作者在实际冲突情况下运作时必然会出现的问题。 。 此外,该报告还讨论了这种“进展”的一些法律方面。
首先,报告“失去人性”的作者指出,所有现有机器人在某种程度上都是自治的,只有这种独立性的水平不同。 因此,所有具有独立工作可能性的机器人,包括战斗,通常被分为三组:循环中的人(控制系统中的人),循环中的人(系统上方的人)和循环中的人(系统外的人)控制)。 在战斗机器人的背景下,这种划分意味着以下工作算法和自治水平:如果人类操作员在控制系统中“是”,则机器人独立地找到目标,并且该人员发出命令来销毁它们。 另外两种类型的战斗机器人可以做出自己的决定和攻击,但人类在循环中的概念意味着可以从人控制并允许后者随时根据自己的判断调整机器人的动作。 人体外循环机器人是完全独立的,不需要任何人为控制。
据HRW员工称,第三类完全自主且不受人类控制的机器人将是未来最大的危险。 除技术和道德问题外,还注意到相关的法律问题。 除其他外,如果发生某些事件,这种战斗车辆会极大地影响敌对行动的整个情况,包括违反基本的国际协定。 首先,人权观察员工呼吁日内瓦公约,更具体地说是对开发商有责任的部分 武器 检查平民的安全。 人权观察认为,战斗机器人设备制造商对此问题不感兴趣,不进行任何检查,这将导致平民人口的损失。
与使用机器人作战系统相关的风险的主要先决条件是,HRW员工认为有前景的机器人的发展水平不足。 在他们看来,与人类不同,战斗机器人将无法保证敌人战斗机与平民或从伤者或囚犯中积极抵抗敌人。 因此,机器人根本不会俘虏并开始完成伤员的风险太大了。 显然,该报告的作者并未坚持对未来机器人能力的最佳看法,并认为有前途的作战系统无法区分武装和积极对手与无辜或侵略性平民的外表和行为。 此外,人权专家否认机器人未来能够预测敌人的行为。 换句话说,当一个想投降,捡起或掉落武器的敌方士兵前去迎接机器人时,情况就有可能发生,并且他会误解并攻击他。
人权观察由于缺乏人类特征和后果危险而直接导致考虑在操作中使用机器人来压制人们的自由和人权的可能性。 人权活动家认为“没有灵魂的机器”是抑制骚乱,镇压等的理想工具,因为与人类不同,机器人不会讨论订单并执行指示的任何事情。
HRW 担心没有人类控制的战斗机器人的一个特征是不对其行为承担任何责任。 如果遥控器的操作员 无人机 袭击平民,然后他将被要求这样做。 如果一个机器人犯下这样的罪行,那么就没有人受到惩罚了。 机器人本身不是一个能够理解惩罚本质并自我纠正的理性存在,根据 HRW 员工的说法,对派遣它执行任务的军方施加惩罚以及惩罚机器人的开发者是没有意义的。机器人的硬件和软件。 结果,机器人可以成为以最卑鄙的方式解决战斗任务的绝佳工具——借助战争罪。 在这种情况下,所有被揭露的事实都可以归咎于设计缺陷或软件故障,要证明具体人有罪几乎是不可能的。 因此,维权人士最怕的是,没有人会因犯罪而受到惩罚。
由于风险很高,人权观察呼吁各国放弃全自动战斗机器人的发展,并在立法层面禁止这种设备。 至于环路中人类和环路中人类的概念,应监测和检查此类系统的开发是否符合国际标准。 即 所有负责任的决定应始终由具有适当知识和宽容但不是自动的人做出。
从目前的趋势来看,并非所有主要国家都完全同意人权观察的报告。 到目前为止,先决条件不仅包括创建,还包括积极使用最自动化的系统。 此外,在许多情况下,它们的应用不仅不违反国际人道法,而且即使在某种意义上也有助于遵守其规范。 这种工作的一个例子是以色列导弹防御系统Iron Dome。 由于该复合体旨在拦截非制导短程导弹,因此其操作算法的设计使得大多数操作都是自动执行的。 此外,通过操作员的适当命令,可以自动执行整个拦截周期,从探测敌方火箭到发射反导弹。 由于这个原因,有可能在敌人Qassams到达定居点之前将其摧毁。 由于使用了几乎自动化的机器人,以色列设法保护其公民的生命和健康,并节省了被毁建筑物的修复。
支持继续发展自动“士兵”的第二个论点也具有人道主义先决条件。 使用大量地面战斗机器人将允许放弃活着的战士并挽救他们的生命。 如果机器人在战斗中受损,那么它可以快速修复或注销废品,并替换为与旧机器人完全相似的新机器人。 是的,并且比训练和训练士兵更容易和更便宜地生产这种技术。 显然,机器人可以在组装后很快恢复战斗,一个人出生后需要成长,学习基本技能,学习各种信息和技能,然后才能学习军事。 因此,战斗机器人的广泛使用将有助于减少人力的损失。 此外,为了保持足够庞大的机器人“士兵”队伍,将需要相对少量的操作员,机械师等。 因此,关于用机械力学取代活着的士兵,收益是双倍的:挽救了生命,节省了金钱。
至于人权维护者对主要国家战斗机器人过度独立的担忧,人们早就准备好了答案。 例如,几年前,美国公布了其开发军事自动化系统至2036的战略。 美国人将发展第一个所谓的。 受控独立系统。 即 具有自主工作能力的战车,但无权作出认真决定。 在未来,计划将武装部队和全自动机器投入运行,然而,这种技术的第一个原型能够真正承担一个人的职责,将不会早于今年的2020。 所以在接下来的几年甚至几十年的战场上都不会出现大量全自动机器人,他们不知道怜悯和怜悯,只能执行命令。 所有重大决策仍然是一个人的责任。
关于赋予机器人更大的自主权,我们需要回忆一个相当有趣的意见。 他的支持者认为应该将人员排除在战斗系统之外,而不是自动化硬件。 作为本论文的证明,引用了生活中人的“设计缺陷”。 控制战斗机器人的操作员,包括完全控制他的所有动作,可能会生病,犯错或甚至有意识地采取任何犯罪步骤。 根据这一观点,机器人作战综合体的“薄弱环节”恰恰是一个活生生的操作者,完全符合关于人为错误的拉丁谚语。
当然,目前,由于显而易见的原因,这两种观点都有生命权:提供不给予机器人行动自由,并谈论将人从系统中移除的必要性。 这两种观点都有其优点和缺点。 辩论不太可能很快停止确定使用战斗机器人的最有希望和可行的概念。 只有一种方式才能找出谁是对的:在战斗机器人的发展中等待进一步的事件。 世界主要国家的军队不太可能开始选择一种无利可图和困难的方式来发展有希望的方向。 但是,现在很难得出任何结论。 最有可能的是,目前的趋势将在未来几年继续。 遥控和有限的自主设备将继续发展,并将在实践中积极使用。 与此同时,将在可以完全独立行动的实验室中创建全新的硬件 - 软件复合体。 这些项目的现状表明,在未来几年,人们将继续对机器人的行为承担全部责任,而人权观察报告中描述的问题仍将是人权维护者,科幻作家和科学家感兴趣的主题。
在网站的材料上:
http://hrw.org/
http://lenta.ru/
http://mport.bigmir.net/
http://ria.ru/
http://bbc.co.uk/
信息