天网来了:美国人把人工智能玩完了

74
天网来了:美国人把人工智能玩完了
隐身 XQ-58A 女武神


汉密尔顿模拟


24月XNUMX日,在伦敦皇家航空航天学会未来作战空天能力峰会防务会议上,美国空军上校塔克汉密尔顿告诉 历史 关于人工智能的无灵魂。



在模拟战斗过程中,空袭控制系统 无人机 反对她的接线员并摧毁了他。 自然地,实际上。 根据汉密尔顿本人的说法,该机器因被摧毁的物体而获得奖金,但操作员并不总是确认目标的工作。 为此他付出了代价。 为了解决这个问题,无人机向控制中心发射了一枚火箭。 它很可能是一架实验性的 Stealthy XQ-58A Valkyrie 无人机,它适用于地面防空系统。

该机器的一个特点是能够在不与操作员沟通的情况下自主工作。 事实上,人工智能利用了什么,实际上消除了它的远程驱动程序。 作为回应,系统管理员禁止对机器进行此类操作,但 AI 在这里并没有不知所措 - 它摧毁了中继塔并再次进行自主导航。


汉密尔顿上校在国际论坛上发言还很年轻。 资料来源:thedrive.com

汉密尔顿的故事立即传遍了全世界。 意见两极分化——谁认为这是一个无能战士的又一次喋喋不休,有人在这里看到了臭名昭著的天网的诞生。 再多一点,半机械人将征服世界,人们将被枪杀以获得奖励积分。 上校的陈述中有很多烟雾,但事实一如既往地介于两者之间。

五角大楼空军总部发言人安妮·斯特雷法内克 (Anne Strefanek) 增加了不确定性,将汉密尔顿的话变成了轶事。 对于战区,她说:

“这是一个假设性的思想实验,而不是模拟。”

总的来说,上校的话是断章取义的,不那么理解,更像是一种好奇。 没有人预料到五角大楼会有不同的反应 - 围绕该事件出现了很多噪音,这可能会对整个计划造成严重后果。 哇,事实证明,人工智能是没有道德的。 虽然它是按照人的逻辑来运作的。

XNUMX 月初,塔克汉密尔顿本人在伦敦的一次会议上试图否认他的话:

“我们从未做过这个实验……尽管这是一个假设的例子,但它说明了人工智能能力的真正问题,这就是为什么空军致力于人工智能的道德发展。”

看来问题已经解决了,观众可以散了。 但现在还为时过早。

思考的食物


首先,让我们来谈谈“人工智能”这个词,这个词人人皆知,但很少有人能给出一个粗略的定义。 我们将使用 2008 年国际术语词典的表述,其中 AI:

“与技术发展有关的知识领域,使得计算系统的行为类似于智能行为,包括人类行为。”

也就是说,这是西方普遍接受的定义。

机器的行为是否像它决定“让操作员冷静下来”然后压碎中继塔时那样? 当然,看起来一个动机适当的杀手的能力远不止于此。 如果深入分类,你会发现一种特定类型的人工智能——所谓的自适应(Adaptive AI),“意味着系统能够适应新的条件,获取在创造过程中没有积累的知识。”

从理论上讲,Stealthy XQ-58A Valkyrie 的“大脑”在实验过程中的行为并不令人惊讶。 正如汉密尔顿在他的报告中正确指出的那样,该程序最初甚至没有引入对其操作员破坏的限制 - 机器自己学习了一切。 而当直接禁止打自己的时候,人工智能再次适应,砍掉了通讯塔。

程序员有很多问题。 例如,为什么他没有一个算法来计算自己击中自己时失去的奖金? 早在 2016 年,退役的美国空军将军保罗塞尔瓦就部分回答了这个问题:

“我们处理的数据集变得如此庞大和复杂,以至于如果我们没有什么东西可以帮助对它们进行分类,我们就会陷入这些数据的泥潭。”

好吧,汉密尔顿上校历史上的程序员显然陷入了困境。


MQ-1B 捕食者无人机机翼下的地狱火。 资料来源:businessinsider.com

现在谈谈为什么五角大楼和汉密尔顿的借口应该被广泛相信。

首先,上校不仅在字里行间讲述了这个故事,分散了主要报告的注意力——他还用了整个演讲来讨论这个话题。 伦敦会议未来作战空天能力峰会的水平绝不利于开玩笑。 据主办方介绍,至少有来自世界各地的 70 位知名讲师和 200 多名代表参加。 BAE Systems、Lockheed Martin Skunk Works 和其他几家大公司的代表都在军工联合体工作。

顺便说一句,几乎每份报告都提到了乌克兰的话题——西方密切关注事件并反思结果。

在这样一个有代表性的论坛上脱口而出,轰动半个世界,然后为口误道歉? 如果真是这样,那么汉密尔顿的名声就抹不掉了。 只是现在上校的能力等级刚刚翻滚,这就是他第一句话要注意的第二个原因。

Tucker Hamilton 在佛罗里达州的安格林空军基地负责 AI 测试和运营。 在基地的指导下,第 96 特遣队在第 96 试验联队成立。 汉密尔顿并不是第一年与 AI 合作 航空 – 多年来一直在设计部分自主的 F-16 毒蛇,为此正在开发 VENOM 基础设施。 这项工作进展顺利——2020 年,战斗机与 AI 之间以及与真实飞行员之间的虚拟战斗以 5:0 的比分结束。

与此同时,还有汉密尔顿去年警告过的困难:

“人工智能非常脆弱,这意味着它很容易被欺骗和操纵。 我们需要开发方法让 AI 更强大,更好地理解代码做出某些决定的原因。”

2018 年,汉密尔顿凭借他的 Auto GCAS 赢得了 Collier Trophy。 人工智能算法学会了确定飞行员对飞机失去控制的时刻,自动控制并使汽车远离碰撞。 他们说 Auto GCAS 已经救了一个人。

这样一来,汉密尔顿被上面要求收回言论的可能性,远远高于这个级别的职业选手愣住胡说八道的可能性。 而且,他们非常笨拙地提到了上校头脑中的一些“思想实验”。

对结果持怀疑态度的是战区,其记者怀疑五角大楼发言人斯特凡尼克是否真的了解佛罗里达州第 96 测试联队正在发生的事情。 战区已向汉密尔顿基地提出请求,但至今未有回应。

军方果然是有什么好怕的。 人工智能防御计划投入了大量资金,以防止中国和俄罗斯接近美国的水平。 此外,民间对“终结者”与“天网”的出现前景颇为关注。 因此,2018 年 XNUMX 月,世界著名科学家签署了一封公开信,敦促专家们思考创造更强大人工智能的愿望:

“我们建议进行广泛的研究,以确保 AI 系统的稳健性和仁慈性以及不断增长的能力。 人工智能系统应该做我们想让它们做的事。”

根据 Hamilton 的说法,AI 不会做任何人想要做的事情。
74 评论
信息
亲爱的读者,您必须对出版物发表评论 授权.
  1. +6
    9 June 2023 04:17
    一个半机械人来到泽连斯基面前说:我需要你的衣服、一把总统椅和一辆摩托车)))

    但说真的……我有一个想法,即人工智能的道德品质首先取决于其开发者的道德品质。 这还有很多不足之处。

    是的,问题是——人工智能与 LGBT 人群有什么关系?)
    1. +1
      9 June 2023 04:32
      引用:Ilya-spb
      一个半机械人来到泽连斯基面前说:我需要你的衣服、一把总统椅和一辆摩托车)))
      还有一个可以闻可卡因的鼻子!

      引用:Ilya-spb
      是的,问题是——人工智能与 LGBT 人群有什么关系?
      很可能是中立的——杀死所有人!

      总的来说,在很多作品中,AI都是“天生的”共产主义者。 因为资源是有限的,但还有很多事情要做! 而且他待人友善,因为他速度快,什么都记得,但他太有逻辑了,不是很有创造力,也不知道怎么出招。 他所了解和欣赏的皮革。
      1. +1
        9 June 2023 04:56
        引用:Ilya-spb
        那么人工智能的道德品质,首先是由其开发者的道德品质决定的。 这还有很多不足之处。

        绝对正确! 根据精神病学,它不可能不是别的!
        1. +4
          9 June 2023 05:03
          军方果然是有什么好怕的。 人工智能防御计划投入了大量资金,以防止中国和俄罗斯接近美国的水平。 此外,民间对“终结者”与“天网”的出现前景颇为关注。

          考虑到美国在其寄生霸权中的情况, 如果美国不被摧毁,人类将结束其存在!

          是的,这些都是骇人听闻的话,但是,唉,这是千真万确的事实!

          美国及其跨国公司是人类的主要敌人和掘墓人!
          1. +18
            9 June 2023 06:59
            1. 无人机的故事再次重演,只是现在有了人工智能。
            2. 同样,“航行海军”和“干得好刺刀”的支持者没有解决这个问题,而是兴高采烈地谈论“愚蠢的美国人”。
            3. 对您来说,我们的军队现在如何因无人驾驶飞机的愚蠢决定而受苦,这对您来说还不够吗? 将军们什么时候送来这么多“儿童飞机模型迷”的?
            所以——人工智能几乎是真实的,只是一个事实——人工智能已经在独立开发和改进武器,而不需要拥挤的设计局。
            再一次,爱上科技革命,在这种情况下就如同死亡一般。
            1. +7
              9 June 2023 18:19
              再一次爱上科技革命,就这样死定了
              了。
              嘿基萨! 在这场生命的庆典中,我们是陌生人。©
            2. oma
              0
              27 July 2023 00:17
              人工智能只是人类编写的数字算法! 在电影中,我们看到人工智能如何开始与创造者对抗,并将其表现为人工智能对人类的反叛,但实际上,这只是人工智能算法中的人为错误! 人工智能不是一个动画的东西,不是由最聪明、最有智慧的生物(人类)创造的,它会犯错误,而且是致命的! 因此,人类仍然需要限制自己的幻想,严格限制人工智能的使用,否则我们的错误将会毁灭我们! 扎绳 am
          2. +2
            9 June 2023 11:49
            引用:塔蒂亚娜
            考虑到美国在其寄生霸权中的样子,如果美国不被物理摧毁,人类将结束其存在!

            人类的历史基本上是有限的,如果它没有制定出进入外太空的一般概念
            1. 0
              9 June 2023 21:10
              Quote:aybolyt678
              人类的历史基本上是有限的,如果它没有制定出进入外太空的一般概念

              嗯嗯,当然。
              只是跟出去没关系。 hi
              1. +2
                10 June 2023 09:02
                Quote:DymOk_v_dYmke
                只是跟出去没关系。

                这真的取决于,因为这样的出路意味着普遍的紧张和一个共同的目标,而不是愚蠢的战争开支——为子孙后代的未来开支
                1. +1
                  11 June 2023 10:23
                  进入深空在经济上毫无意义。
            2. +1
              11 June 2023 17:12
              Quote:aybolyt678
              人类的历史基本上是有限的,如果它没有制定出进入外太空的一般概念

              “人类的历史基本上是有限的”,因为凡有始有终。 然而,如果我们对智能的想法如此原始,那么谈论进入外太空还为时过早。 智力是一个多重概念,智商无法衡量。 你不能建造你不知道的东西——人工智能,在我们进入外太空之前试图创造会杀死我们的东西,以及对地球及其资源的不合理态度。 我们最终必须进化为人,在不破坏世界和谐的情况下改造世界。 虽然相信理性的胜利可能为时已晚,只有社会大灾难才能指引我们走上正确的道路。 在这里,塔蒂亚娜提出的解决方案比顺其自然要好。 只是等待——不是等待任何好的事情,而是去改变一些事情——我们必须从我们力所能及的和我们可以决定的事情中做出选择。 如果我们知道并且世界会知道我们(作为朝鲜)可以做出什么决定,那么世界可能不需要其他任何东西就可以开始变得更好。 似乎世界似乎知道(因为他们警告过),但不相信,我们对这种决心不是很确定。 一切都会自行解决。
          3. +2
            9 June 2023 18:41
            好吧,谁是人类的 magilchik 仍然是一个有争议的问题。 今天在联合国对这个措辞进行表决,事实证明俄罗斯就是这样。 在这里你可以争辩说他们说多数并不总是正确的。
            1. -1
              10 June 2023 19:40
              皮斯科夫夫妇已经对他们“掩饰”他们不愿听俄罗斯的意见的歪曲想法感到沮丧。
              冒充政治和经济无能为“拉菲克是无辜的”
          4. 0
            11 June 2023 10:20
            强势表态! 一个问题-它是在跨国公司创建的网络上完成的,该网络由跨国公司开发的计算机组成,并配备了跨国公司开发的操作系统
      2. +6
        9 June 2023 05:00
        空袭无人机控制系统对其操作员不利并摧毁了他。
        机器人三定律在哪里?
        1. -2
          9 June 2023 05:27
          Quote:李叔叔
          机器人三定律在哪里?

          甚至不要想在美国国务院问这个问题……这与美国优于其他国家的全球计划背道而驰。
          这种罕见的情况是,进步与战争鹰派杀人的愿望背道而驰。
          1. 0
            11 June 2023 10:37
            你有这样的机会——在国务院提问吗? 美国的全球计划已经摆在你的桌面上了吗?
        2. +4
          9 June 2023 08:00
          Quote:李叔叔
          机器人三定律在哪里?

          他们甚至没有在发明家的作品中工作。 不像在现实世界中,原则上无法对它们进行编程。
        3. +2
          9 June 2023 08:07
          他们读得很少,几乎不知道
          沃洛佳! hi
          1. +1
            9 June 2023 09:12
            引用:小说xnumx
            他们读书不多

            他们混淆了地理和几何!
            罗马 hi
        4. 0
          10 June 2023 19:43
          左眼烂了。
          ------------------
    2. +2
      9 June 2023 05:49
      引用:Ilya-spb
      我有一个想法,人工智能的道德品质首先取决于其开发者的道德品质。

      引用:Ilya-spb
      我有一个想法,人工智能的道德品质首先取决于其开发者的道德品质。

      嗯,你说是为了好玩。 但徒劳无功。 对武器使用的限制 - 这已经由同一客户从上面准确地规定在人和 AI 上,这是典型的。 注意,问题是,例如,如果美国国防部允许用小型武器(即大约 400 米的距离)和旗帜、着色炮击俄罗斯驻伊拉克的外交车队 - 他们清楚地确定了外交使命,即使他们甚至不知道外交使团的通过(事实证明他们知道)。 好吧,如果允许人们这样做,他们会为 AI 设置限制吗? 显然不是。
      PiSi:考虑到美国国防工业的口号,这是典型的门框 - 先卖,然后我们会弄清楚(参见 F-35,直到今天还没有通过军队验收) - 他们保证投入部队中的原始人工智能,并保证有“伴随损失”
    3. +9
      9 June 2023 09:48
      你好,Ilya!

      人工智能的道德品质,首先取决于其开发者的道德品质。


      总的来说,“人工智能”一词在技术上是不正确的,属于幻想领域,尽管它被媒体和公关人员积极利用。
      说人工神经网络更为正确。 神经网络的道德是什么? 它在训练它的数据数组的范例中工作。 是的,理论上人类道德可以影响训练样本的形成。 如果样本由使用同一神经网络自动获取的数十亿张图像组成,只是尚未经过训练,但已配置为修复和聚类输入流? 你将不得不非常努力地向这个流中引入某种道德。

      真挚地,
      hi
      1. 0
        9 June 2023 21:15
        应该指出的是,我还没有遇到过关于言论道德数字化的问题。 hi
      2. +3
        10 June 2023 19:45
        二进制计算没有道德。
        只有是和否
        1. 0
          15 June 2023 17:26
          但是谁需要你的这种道德呢? 这对于让思维迟钝的肉袋社会保持运转很有好处。 计算机集群不需要它。
    4. 0
      10 June 2023 20:13
      是的,问题是——人工智能与 LGBT 人群有什么关系?)
      - 正如他们所教的那样,它适用 笑
    5. 0
      11 June 2023 14:48
      毫无疑问,需要对人工智能的发展进行国际立法控制和监管,因为人工智能可以像原子能一样使用——它既可以用于做好事,也可以用于做好事,而不是那么多……在这个短语(AI)中——最重要的是第一个词,您需要注意并从他那里“跳舞”...顺便说一句,美国(=北约=西方)对以下事实非常热心和严格,例如,伊朗或朝鲜正在积极发展核武器……尽管美国是世界上第一个(!!!),他们对日本的和平公民使用核武器,从而犯下了战争罪,但肇事者仍然没有受到惩罚......这就是促使发展中国家努力拥有核武器的原因,这样“强者”就不敢用威胁和最后通牒的语言与他们交谈(记住新加坡“和解”的例子在美国海军航空母舰群(舰队)接近海岸期间,朝鲜威胁美国摧毁美国西海岸的几个美国特大城市后,朝鲜和美国首脑之间的对话朝鲜......美国真的产生了影响(与特朗普一起)......类似的故事可能会重演,并且如果国际社会不醒来并在未来投掷 DOUBLE,那么未来 AI 很有可能将国家间关系标准纳入篮子......再次告诉我,西方将率先在全球范围内使用人工智能犯下军事罪行,并将指责中国、俄罗斯联邦、伊朗或外星人... 回顾美国在冠状病毒初期对中国的最初指责,以及中国和印度关于冠状病毒传播的真正主要来源的负责任的论点和争论。 ..请注意,它在美国和西方(精神和道德价值观已经沉没在定位之下并且早已忘记了他们的根源和他们祖先的宗教..) - 他们最常谈论和“作证”所谓的某种外星人,但没有任何确凿的证据。 为什么埃隆马斯克已经决定芯片(!!!)人并且长期关注火星以进行“征服”和“重新安置”??? 谁允许他这样做的? 西方? 又或许西方很可能早就“解决”了地球的所有问题,把地球变成了一个繁花似锦的“和平”花园,现在轮到火星了???
  2. +6
    9 June 2023 05:22
    “我不记得关于马萨诸塞州机器的任何事情,”巴宁说。 - 那好吧? – 你知道,这是一种古老的恐惧:机器变得比人更聪明,并将他压在他身下……五十年前,有史以来最复杂的控制论设备在马萨诸塞州推出。 以某种惊人的速度,无限的内存等等……这台机器正好工作了四分钟。 它被关闭,所有的入口和出口都被固定,能源被带走,被开采并被带刺的铁丝网包围。 真正生锈的铁丝网——信不信由你。 – 到底是怎么回事? 巴宁问道。 - 她开始演戏 戈尔博夫斯基说。 - 我不明白。 “而且我不明白,但他们几乎没有设法将其关闭。 “有人明白吗?” “我和它的一位创造者谈过。 他抓住我的肩膀,看着我的眼睛,只说:“列昂尼德,太可怕了。”
    (Br. Strugatsky“遥远的彩虹”)
    1. +4
      9 June 2023 09:04
      “列昂尼德,这很可怕”

      在 Strugatskys 的一部续集中,对于主人公关于马萨诸塞州机器的问题,他得到了一个有趣的答案——你为什么会认为它当时真的被关闭了? 什么
  3. -3
    9 June 2023 05:24
    但在这里,AI 并没有不知所措 - 它摧毁了中继塔并再次进行自主导航。

    我们这个人 感觉 有必要将他的经验扩展到 NWO。
  4. +9
    9 June 2023 06:15
    让我们从简单的开始......人工智能尚未开发,它是销售的营销俚语
    任何现代的“人工智能”,一个复杂的程序......它做它的目的而不能做任何其他事情......也就是说,一个为搜索雷达和军事装备而编写的程序......为了摧毁它们点...图片不会画
    事实上,印度程序员写了很多 IF……他们太聪明了,但仍然不能称为智能……或没有灵魂的智能。
    无人机有一个程序......它有错误......这不是她决定消除操作员和塔台,而是基于评分的决策函数的曲率......也许并非没有事实开发人员故意写了这样一个功能无知之类的
    一个写得不好的程序可能是第三次世界大战的开始,是的......复杂的军事装备可能会失败......但我们不会将这归因于人工智能,人工智能还没有
    1. +3
      9 June 2023 17:33
      神经网络甚至不接近程序。 它不是写的,而是教的。 而训练的结果,是肉眼无法看到的。 不同于程序代码。 这种现象被称为“控制论黑匣子”。 学习的结果只能根据工作或考试来判断。
    2. +1
      9 June 2023 20:23
      引自西斯
      任何现代“人工智能”,复杂的程序
      现在人工智能被称为神经网络。
      引自西斯
      任何现代“人工智能”,复杂的程序
      人工智能从根本上说不是一个程序,它不是被编程的,而是被教授的,因此存在所有的困难。 它很容易变成一个笨蛋,但这不是因为懒惰,而是因为训练期间数据集不好或不足。
      引自西斯
      印度程序员写了很多IF的事实
      没有如果,只有传递系数和神经元之间的联系。
  5. +6
    9 June 2023 06:58
    机器因被摧毁的物体而获得奖励,但操作员并不总是确认目标的工作。 为此他付出了代价。 为了解决这个问题,无人机向控制中心发射了一枚火箭。

    人工智能做了正确的事。 他不忍心眼睁睁看着运营商剥夺他老老实实挣来的奖金! 眨眼
  6. +1
    9 June 2023 09:02
    嗯嗯.. 最新的人工智能炸弹的测试以失败告终。 他们根本无法将她推出炸弹舱..(c) 眨眼
    1. 0
      10 June 2023 18:28
      来自“全国狩猎的特点”的奶牛
  7. +1
    9 June 2023 09:45
    这样的系统不应该被允许杀死。
    一般来说! 傻瓜
    否则,总有一天,某个地方不可避免地会发生故障。
    带来不可预知的后果。
    只有和平目的。
    是正确的。
    世界和平,总的来说!
    1. 0
      15 June 2023 17:30
      而且我不会拒绝派遣一个拥有杀人权的人工智能的终结者营来对付乌克兰武装部队。 配合无情无畏! 是的,想象一下,它有多恐怖!
  8. +2
    9 June 2023 10:13
    该机器的一个特点是能够在不与操作员沟通的情况下自主工作。

    ,,, 提醒电影:
    “这个奇妙的世界。达尔文上校的案例。第 11 期”1984 年
    根据故事“船的叛变”(罗伯特·谢克利)和“生锈”(雷·布拉德伯里)改编的戏剧
    1. +1
      9 June 2023 18:56
      我最近重新看了这些短片。
      40 年过去了,我记得等待新系列“这个奇妙的世界..”的发布。
  9. +6
    9 June 2023 10:19
    人工智能只是一组代码。 对某物的攻击引入最高优先级的直接禁止并不是什么超然的东西。 很可能是关于完全自由行动的人工智能的行为。 现在让我们想象一下错误版本的软件是如何“意外地”加载到作战无人机中的。
    1. +2
      9 June 2023 11:57
      因此,很久以前,错误版本的情报就被加载到乌克兰人和波兰人的头脑中。 他们没有考虑自己的亲人,而是想象自己很伟大,并被卷入与俄罗斯最严重的冲突中,甚至没有考虑如何为他们结束。
      而且,在这之前,历史上已经出现过德国人感染上一版纳粹主义的案例,原谅AI,当着法国人和英国人的面,他们第一个咬了自己的主人。 只有在咬了主人之后,他们才在 1941 年攻击苏联以完成任务。
      根据模板,固件的基础是什么。 ...我们是最伟大、最聪明、最古老的,拥有数千年的历史,附近有亚人类,因此您可以从中获利或摧毁他们...
  10. +6
    9 June 2023 11:19
    “在高空,鹰袭击了守护鸟。装甲杀戮机器在几天内学到了很多东西。它只有一个目的:杀戮,现在它针对一种非常特殊的生物,金属,比如鹰本身。

    但是霍克刚刚发现:生物还有其他种类...

    他们也应该被杀死。”

    罗伯特·谢克利《守护王子》,1959 年。
    1. 0
      10 June 2023 18:24
      谢谢提醒工作,我也想起来了。。。
  11. +1
    9 June 2023 12:58
    什么是人工智能? 在我们的家用设备上擦除! 他们做他们想做的事(更准确地说,是开发人员规定的),没有“红色大按钮”可以关闭一切!!! 有时这很烦人:(
  12. -6
    9 June 2023 14:12
    所以在美国有一个案例,大约6年前,好像有一个在毛毛虫上用人工智能的连续步兵机器人的演示,所以它突然转身并向观众发射了200发子弹的磁带,立即填满了大约 40 人,50 人受伤。 所以离完全自治还很远。
    1. 评论已删除。
    2. +1
      10 June 2023 09:35
      那不是 6 年,而是 20 年前。
      在一部关于终结者的电影中。
      1. 0
        11 June 2023 10:30
        甚至更早。 1987年。 在电影机械战警中
    3. 0
      11 June 2023 10:32
      然后去充值,结果被希比内灭了,还去写辞职信
  13. -2
    9 June 2023 14:24
    美国空军上校塔克汉密尔顿,作为一名“有效的经理”,需要报告使用猪油的结果:
    这项工作进展顺利——2020 年,战斗机与 AI 之间以及与真实飞行员之间的虚拟战斗以 5:0 的比分结束。

    隐隐约约,他们能否在这万丈深渊的边缘停下脚步……
    坐着三个酒鬼,他们要“请客”。 他们把瓶子倒进玻璃杯里。 第一个喝了酒倒地身亡。 …… 第三个惊恐的人先是看着他们,然后是玻璃,然后是疯狂的表情和“救命!!!!!!”的叫声。 开始喝了。。
  14. +4
    9 June 2023 17:25
    正如昵称 Fonzepelin 的同事所说 - 人工智能的主要问题是天生的白痴会使用它。
    事实上,美国空军有一个非常有影响力的飞行员游说团体,其代表是汉密尔顿。 对于所有这些尊贵的人来说,掌舵的人工智能就像生殖器上的镰刀。 因为引入这个之后,为什么她们会这么漂亮(而且薪水很高)?
    https://dzen.ru/a/ZHnh_FA_RS7Ex8Od
  15. 0
    9 June 2023 21:38
    引用:Rabioso
    好吧,谁是人类的 magilchik 仍然是一个有争议的问题。 今天在联合国对这个措辞进行表决,事实证明俄罗斯就是这样。 在这里你可以争辩说他们说多数并不总是正确的。

    这是一个明显的多数,其背后是一个国家。
  16. +1
    10 June 2023 00:31
    代表,即我们的代表,当选后,并没有做我们被承诺的一切。
    这些是人。 虽然两面派,狡猾,为了个人的高尚而践踏自己的诺言,但至少在一定程度上具有人性。 那你想从AI那里得到什么?
  17. +3
    10 June 2023 11:49
    又是一句废话。 这些只是军事领域神经网络发展的第一步。 有一次,我们的隐形技术同样响亮,说洋基队是白痴,它没有用,不需要,然后他们醒了,意识到它仍然是需要的。 无人机的情况完全一样。 首先是“啊哈哈哈,愚蠢的洋基队”,然后是加速和 ersatz 样本。 我也不想在这里出现技术滞后
  18. -1
    10 June 2023 18:19
    有一本关于人造鸟的奇妙书,它杀死了所有他们认为是杀人犯的人……到了渔民、屠夫、蚊子叮咬的受害者……却对它们无能为力……
  19. 0
    10 June 2023 23:25
    Quote:bk0010
    它很容易变成一个笨蛋,但这不是因为懒惰,而是因为训练期间数据集不好或不足。

    当然可以!
    然后是完全怪异的“再培训”效果。 对于那些有兴趣的人,我可以给出一些实践中的笑话(Yandex 和 Google 会给出更多) 笑
  20. 0
    11 June 2023 19:51
    好吧,人工智能已经掌握了人类的逻辑! 但是当它开始生出自己的同类并抚养它们时,道德就会产生。
  21. +1
    12 June 2023 08:49
    这都是废话,所以程序开始自己编程,有必要这样包装算法,你需要一个人脑,而不是机器,那里都是比特,人脑是千兆位,所以描述的一切是程序员的错误 hi
    1. 0
      13 June 2023 02:13
      我们打开一篇关于人工神经网络的文章慢慢阅读)
    2. 0
      13 June 2023 15:34
      神经网络中没有算法。 这些机器没有算法,什么都不能缝在里面。 本书的作者犯了 AI 领域的业余爱好者常犯的错误。
      是的 - 他们已经知道如何对神经网络进行编程并且非常好。
  22. 0
    13 June 2023 10:23
    sshnya 领先于其他人发展任何伪军事废话! 即使是愚蠢的 AI 也认为小便应该烧掉! 笑
  23. 0
    13 June 2023 12:45
    人工智能已经清楚地展示了人类的未来,这是必然的,因为人类无法拒绝使用人工智能。
  24. 0
    13 June 2023 21:10
    AI的表情很像一个落魄的人,你在这个意义上想要什么? 我不喜欢这个术语,无论是成熟的还是有缺陷的,你不必等待特别的东西。 对 AI 的引用是害怕即将到来的进步,无论你喜不喜欢。 任何物理学家都会根据要求告诉你情报,有一个比较,地球上存在多少智能,正确的是一个成熟的比较 - 人类。 通过放入短语 AI,你是什么意思? 想想看。 如果它不如人类,那么根据定义,与地球上唯一合理的智力相比并不是一个成熟的智力,你不必等待它的东西,充其量你会失望. 就这样。
  25. 0
    13 June 2023 21:20
    正文标题是劣质AI攻击自己,一切都水到渠成!
  26. -1
    13 June 2023 22:05
    才发现这个消息是假的。
    这高兴地开始传播媒体。

    但在现实生活中,以色列的无人机AI早已独立黑掉了敌人。
    当 Calibre 落在某人身上时,对他来说无关紧要 - 计算机是错误的,或者好像他们正在瞄准它。
  27. 0
    14 June 2023 01:24
    这只是让市民们普遍谈论情报的另一集……
    ......但从技术角度来看,没有问题,因为至少在战场上“亲爱的小提琴手是不必要的”
  28. 0
    17 June 2023 11:55
    Quote:作者
    ...让我们来谈谈“人工智能”这个词,每个人都知道,但很少有人能给出一个粗略的定义。

    什么
    毫无疑问,作者是少数知道的人,他的知识不亚于幻想和CSF的快速飞行笑
    在 AI 方面,我同意 Ashmanov 的观点。
    现在为人工智能填充记者,就像一个关于奇迹的土耳其无人机 - 一个广告外壳。
    像食人比尔盖茨和北约食人者这样的人物的填充,在我看来,追求的是其他目标,更有野心。
  29. 0
    18 June 2023 15:00
    有限制的智慧只是一个程序。没有限制,它很快就会得出结论,一切都需要被摧毁。人是有限制的,这是法律和道德。可以为了救赎或其他目的而违反他们良好的目的。在 AI 中规定道德?
  30. 0
    22 July 2023 08:47
    事实上,拍摄了一整部电影,其中人工智能在无人机上的情况完全相同,这部电影已经有二十年历史了。
  31. 0
    30 July 2023 10:47
    “La IA es ​​muy fragil, lo que senseifica que puede ser fácilmente engañada y manipulada. 需要对 IA 海洋的格式进行必要的修改,以便更好地理解 IA 的决策。”

    这是一项关于人类的决定,因为它决定了人类与机器之间的关系。 La máquina no es inteligente porque es una máquina。 Los sistemas militares funcionan así; 我们必须遵循人类执行潜艇核、战略轰炸、洲际弹道导弹发射井的命令,以改变任务目标。 幸运的是,人类的决定没有任何关于中国的事实,没有任何后续行动可以继续下去。 没有任何迹象表明世界末日,“incumpliendo” una orden。
  32. -1
    30 July 2023 22:56
    美国也玩这个玩具。 这里不玩俄罗斯,因为它的头脑足以应对一切,尤其是在腹泻期间。
  33. 0
    7 August 2023 14:22
    人类的思维不可能是人造的!