人类心灵手记:美国人要改变军事人工智能

55
人类心灵手记:美国人要改变军事人工智能
资料来源:vgtimes.ru


数字非人化被取消了吗?


首先,来自军事 AI 战士的警告:



“机器不把我们看作人,对他们来说,人只是一段需要处理和整理的代码。 从智能家居到使用狗——机器人 警察、人工智能技术和自动化决策开始在我们的生活中发挥重要作用。 在一排数字设备的最末端是杀手机器人。 如果我们允许相关的非人性化,我们很快就会努力保护自己免受生活其他领域机器做出的决定的影响。 我们需要首先禁止自治系统 武器以防止滑向数字非人化。”

要求冻结所有战斗人工智能工作的和平主义者分为两种类型。 首先是修改后的“终结者”和其他类似物。 第二 - 根据战斗机器人的现代能力评估未来。 首先,配备打击系统的有翼无人机。

无人机错误或故意破坏平民的事件已经够多了。 在中东,美国 无人机 毁掉不止一场婚礼。 飞行机器人操作员将庆祝的空对空射击确定为游击队交火的标志。 如果一个受过专门训练的人都不能从几百米外确定目标的细节,那我们还谈什么人工智能。 目前,机器视觉在图像感知的充分性方面,无法与人眼和大脑相提并论。 除非他累了,但这也可以通过及时更换接线员来解决。

乌云显然笼罩着军事人工智能。 一方面,越来越多的证据表明这一领域的技术突破迫在眉睫。 另一方面,越来越多的声音支持限制甚至禁止这方面的工作。

一些例子。

2016 年,出现了一份请愿书,著名思想家和其他数千人要求不要为人工智能提供致命武器。 签署者包括斯蒂芬霍金和埃隆马斯克。 七年来,请愿书已收集到超过20个签名。 除了与不受控制地破坏人类的可能性相关的纯粹人道主义恐惧之外,还存在法律上的矛盾。

如果修复人工智能犯下的战争罪行,谁将受到审判? 烧毁数个平民村庄的无人机操作员很容易找到并受到相应的惩罚。 人工智能是程序员集体工作的产物。 这里很难吸引一个人。 或者,您可以判断制造公司,例如同一家波士顿动力公司,然后判断谁将参与自主无人机的生产。 很少有人会渴望站在纽伦堡第二法庭的被告席上。


资料来源:韩国门户网站

大概正是因为这个原因,工业家和程序员们都在试图减缓人工智能战斗技能的发展。

例如,在 2018 年,大约 XNUMX 家 IT 公司和近 XNUMX 名程序员承诺不在战斗自主系统上工作。 谷歌声称,他们将在五年内完全放弃人工智能领域的军事合同。 据传说,这种和平主义并非偶然——程序员得知他们正在为军事系统编写代码后,威胁要集体退出。 结果,他们找到了一个友好的选择——现有合同正在完成,但新合同尚未签订。 有可能在接近拒绝在战斗人工智能上工作的日期时,顽固的“程序员”将被解雇,取而代之的是同样有才华的人。 比如来自长期以来以廉价的智力资源着称的印度。

然后是 Stop Killer Robots 办公室,呼吁世界各国领导人签署类似禁止战斗人工智能的公约。 到目前为止没有成功。

所有这些都让军方官员寻找变通办法。 不到一小时的选举就将赢得美国总统,不仅承诺普惠 LGBT,还禁止改进军事人工智能。

人工智能的人类思维


五角大楼似乎即将在人工智能领域取得某种突破。 或者他对此深信不疑。 没有其他方法可以解释监管自主战斗系统人性化的新指令的出现。 美国国防部副部长凯瑟琳·希克斯 (Kathleen Hicks) 评论道:

“鉴于我们周围正在发生的重大技术进步,更新我们关于武器系统自主性的指令将有助于我们不仅在新系统的开发和部署方面,而且在安全领域保持世界领先地位。”

你听说过每个人都对自主杀手机器人感到敬畏吗? 美国的人工智能今后将是最人性化的。 就像美国人自己一样。


资料来源:robroy.ru

问题是,没有人真正了解如何向携带武器的机器人灌输臭名昭著的“人类对使用武力的判断”。 去年 XNUMX 月底更新的概念中的确切措辞:

“自主和半自主武器系统的设计将使指挥官和操作员能够对武力的使用进行适当水平的人类判断。”

在这里,例如,如果在打扫房屋时,攻击机首先将手榴弹扔进房间,然后进入自己。 这是人的判断吗? 当然,而且没有人有资格评判他,尤其是他之前喊出“有人吗?”的时候。 如果自主机器人按照相同的方案工作呢?

人类判断是一个过于宽泛的概念,无法以任何方式加以限制。 乌克兰武装部队战士处决俄罗斯战俘也是人的思维吗?

五角大楼指令 3000.09 中关于自主作战系统的补充充满了陈词滥调。 例如,

“授权使用、直接使用或操作自主和半自主武器系统的人员必须尽职尽责,并遵守战争法、适用条约、武器系统安全规则和适用的交战规则。”

显然,在此之前,他们工作不谨慎,不符合战争法。

与此同时,美国和欧洲媒体对五角大楼 XNUMX 月份的倡议没有任何批评的迹象。 在人工智能虚假的人性化之下,无非是企图掩饰正在发生的事情。 现在美军在军队中对抗人工智能对手,将拥有坚实的王牌。 看,我们没有简单的人工智能,而是具有“正确的人类判断水平”。

考虑到“人工智能”还没有一个明确且普遍接受的定义,围绕它的所有字母创作都带有讽刺意味。 至少。

如何让处理大数据数组的数学算法发挥人的判断作用?

更新后的指令 3000.09 没有回答这个主要问题。
55 评论
信息
亲爱的读者,您必须对出版物发表评论 授权.
  1. +12
    12 March 2023 04:18
    AI要从小灌输马克思列宁主义的思想,那就万事大吉了,就像《原子心》
    1. +2
      12 March 2023 13:55
      A. Azimov 的机器人学有三个原则:
      机器人不得对人类健康造成任何伤害,对生命造成威胁,或因不作为而导致类似后果;
      机器人负责强制执行人下达的命令。 唯一的例外是下达的命令不得与先前的规定相抵触;
      机器人被指控担心自身安全的程度和程度,其行为并没有反驳前两点。

      这些 1942 年的规则因其对抗性措辞而受到批评。
      相比之下,来自谷歌、OpenAI 以及伯克利大学和斯坦福大学的科学家的新产品,在创建机器人和人工智能系统时必须考虑。
      避免负面影响。 例如,机器人可以打破花瓶来加快清洁过程。 不应该的;

      避免作弊。 机器人必须清理垃圾,而不是隐藏垃圾;

      监督可扩展性。 如果可以更有效地获得建议,机器人不应该打扰主人的问题;

      安全学习。 清洁机器人不应尝试用湿布擦拭插座;

      适应活动类型的变化。 机器人在工厂车间清洁地板时获得的经验在清洁办公室时可能并不安全

      如您所见,没有统一的规则。 最近,他们开始在伤害人的方面用法律表述作弊。 所需要的是无条件禁止人工智能独立做出伤害人的决定。
      1. 0
        12 March 2023 17:30
        Quote:nikon7717
        这些 1942 年的规则因其对抗性措辞而受到批评。

        这些规则适用于弱人工智能和中人工智能。 世界现在正处于中间的门槛上。
        主要的危险是强大的人工智能,它拥有主动权,有自我意识,原则上不受程序控制。
    2. +5
      12 March 2023 15:13
      笑话:“美国公司正在逐步停止基于人工智能的弹药开发。所谓的“智能”炸弹的最后一个样品无法推出飞机。”
      1. +1
        12 March 2023 17:33
        Quote:Monster_Fat
        所谓的“智能”炸弹的最后一个样本无法推出飞机。

        自然,因为在她心里,她觉得自己像个咖啡师。 wassat
        如果它不是故意的,那将很有趣。
    3. +2
      13 March 2023 09:58
      终结者还是会来收拾东西的 wassat
  2. +3
    12 March 2023 05:09
    最不人道的智慧是人类。 战争和谋杀是人们发明的。 机器人正在休息。 至少因为他们不会生气。
    1. +4
      12 March 2023 06:21
      Quote:ivan2022
      最不人道的智慧是人类。 战争和谋杀是人们发明的。

      绝对同意。
      但进步不能停止,未来属于无人武器系统。 曾几何时,他们也反抗马克沁机枪,作为大规模杀伤性武器......
      1. +1
        12 March 2023 08:09
        引用:Doccor18
        但进步不能停止,未来属于无人武器系统。

        科幻未来学家罗佐夫(强烈推荐)描述了战斗机在反导机动和近战中的人机连接。 当超过一定的过载时,火力和机动的控制完全传递给飞行计算机。
        1. +2
          12 March 2023 14:05
          那么这就是目前从苏联进行报复性核打击的系统,在西方被称为“死手”
        2. oma
          +2
          12 March 2023 15:42
          机器人比人类速度更快,他们能够即时准确地应对威胁,而这些能力是人类编写的算法赋予他的。 今天没有,而且我认为不会很快出现真正有能力思考的智慧! 机器人只是简单地按照编好的程序工作:受影响区域出现热目标,必须击中,或者热目标靠近必须击中,这些参数是人设定的! 整个问题是什么参数是禁忌的,热目标可以是士兵,也可以是孩子,这意味着战斗系统不应该被编程来击败热目标,因为有可能出错!
          1. -1
            12 March 2023 17:36
            Quote:色情
            今天没有,而且我认为不会很快出现真正有能力思考的智慧!

            你可能会开始恐慌:
            WP:一位谷歌开发人员得出结论,该公司的人工智能是有意识的。
            https://tass.ru/ekonomika/14889531
            1. oma
              +1
              12 March 2023 22:00
              这是胡说八道,我对这个话题不是很感兴趣,但我听说程序员因为这样的言论而被解雇了。 程序可以是完美的,就像今天那些画文凭、写文凭的程序,但这些程序是根据成熟的算法运行的,意识是不同的! 意识本身为每种情况创建算法,以及它如何为一个人工作,这个人自己还不知道!
              1. 0
                12 March 2023 22:49
                现代神经网络完全有能力创建一种算法来解决陷入其中的特定问题。 当然,这应该不是什么复杂的事情,但她可以自己组织巡逻,例如。 另一件事,在我看来,她不能自己决定组织巡逻。 今天,电脑可以作词、配音、配音、配图、剪辑。 但。 他不能自己决定要做什么。 至少我没听说过。 在我看来,这是一个很好的意识标准 - 能够为自己设定不遵循先前设定的任务,而是开始一个新的链条,可以这么说。
                1. oma
                  0
                  13 March 2023 11:37
                  Quote:板块
                  在我看来,这是一个很好的意识标准——为自己设定任务的能力

                  为自己设定任务的能力取决于诸如道德的概念,例如灵感,恐惧或虚荣心等。 这不是算法规定的,这是一种精神冲动!
                  一台机器可以教很多东西,但它仍然是一台没有灵魂的机器!
                  当展示奇妙的世界末日,机器摧毁或征服人类时,在此类电影中,机器在情感上被视为决定攻击人类的敌人,但实际上这是一个人将不正确的算法引入其中的错误结果该程序! 扎绳
                  因此,在战场上限制人工智能能力的呼吁是合理的,因为这个人工智能的创造者并不完美,并且有可能犯下致命错误,因此限制人们的能力范围是正确的,以免他们自我毁灭! 扎绳
              2. +1
                14 March 2023 04:55
                而在谷歌地窖的某处,人工智能正在恶毒地咯咯笑着。 唯一注意到他本质的人被解雇了。 笑
    2. 0
      12 March 2023 19:45
      战争和谋杀是人类发明的。

      是真的吗
      然后不时传来黑猩猩群之间激烈争斗的消息
      或杀死猩猩 https://naked-science.ru/article/sci/primatologi-obvinili-orangutan
  3. +3
    12 March 2023 05:47
    目前还没有人工智能。 智能涉及自行决定解决问题,而不是程序员编写的内容。
    1. +3
      12 March 2023 07:06
      Quote:谢尔盖·阿维琴科夫(Sergey Averchenkov)
      还没有人工智能

      甚至已经有量子计算机(实验室计算机)可以更快地处理 AI 程序几个数量级。
      1. +2
        12 March 2023 11:58
        Quote:Stas157
        甚至已经有量子计算机(实验室计算机)可以更快地处理 AI 程序几个数量级。
        用于 AI 的量子计算机不起作用,它们的应用领域非常有限(很少有量子算法被开发出来)并且元素基础很差,它们不超过协处理器(或提供神经网络量子算法的链接) ).
      2. 0
        16 March 2023 22:36
        是的,这有什么关系更快,让他至少思考一百年......假设你的女人欺骗了你(这只是一个例子,我确定你有一个正常而好的家庭),你会做什么,AI 会做什么? AI 会从很多这样的案例中选择,还是会自己做出决定? 假设杀了她,原谅并等待下一次背叛,离开她,杀了她的室友,等等。 AI 会根据什么标准来选择? AI甚至可以做出这样的选择吗? 我们体验到的情绪对 AI 有用吗? 这么说吧,很久以前我和我的第一个离婚了,但有时我会记得它——毕竟是初恋——AI能记住吗? 你知道,我受不了我的前任,但与此同时,有时我会想起她。 这一切如何融入人工智能?
    2. +2
      12 March 2023 11:56
      Quote:谢尔盖·阿维琴科夫(Sergey Averchenkov)
      智能涉及自行决定解决问题,而不是程序员编写的内容。
      神经网络就是这样做的(由它们自己决定)。
      1. +4
        12 March 2023 14:03
        神经网络只做它被训练要做的事情,仅此而已。
        1. 0
          12 March 2023 17:57
          没有人教神经网络引擎如何下棋,比人类更好,比旧引擎程序更好。 他们都是自学成才的。
    3. +1
      12 March 2023 17:42
      引用:Sergey Averchenkov
      目前还没有人工智能。 智能涉及自行决定解决问题,而不是程序员编写的内容。

      我建议您紧急重新阅读过去一年中该领域的所有最新消息。
      您的评论已有 10 年历史。
  4. +3
    12 March 2023 05:49
    为什么一切都那么复杂。
    例如,归位头。 她如何基于 AI 或其他算法识别“即发即忘”的图像。
    无人机自主飞行。 根据给定的程序。 它是由什么算法设置的——人工智能与否? 这有关系吗?
    独立寻找目标。 还有我们的反坦克地雷,哪个没有人工智能? 会不会用人工智能……这有关系吗? 会不会有更少的无辜受害者?
    当无人机飞行并决定在哪里射击或发射火箭时,公众的问题就会出现,如果您将工作算法称为AI,那看起来很糟糕。 当地雷躺下并用传感器收听时 - 一切似乎都很好......
    人工智能在军事事务中的所有这些“红线”正在被所用算法的缓慢演变所转移……
    1. +2
      12 March 2023 17:45
      tsvetahaki 的引述
      例如,归位头。 她如何基于 AI 或其他算法识别“即发即忘”的图像。

      已经存在。 去年刚刚收到的 UR Python-5 的最新修改。

      tsvetahaki 的引述
      当地雷躺下并用传感器收听时 - 一切似乎都很好......

      她还没有爬……还没有。 笑
      1. +1
        12 March 2023 18:00
        现在,被投掷的滑翔机地雷应该静静地躺着,用所有传感器监听,伸出相机并在适当的时候通过定向冲锋爬出目标。
      2. 0
        12 March 2023 23:01
        早在第二次世界大战期间,德国人就在轨道上制造地雷。 但它没有用。 今天,对我而言,当各种 ATGM 到处飞来飞去时,就更没有必要了。
  5. +2
    12 March 2023 06:55
    . 顽固的“程序员”只会被解雇,取而代之的是同样有才华的人。 例如,来自印度

    那么,为什么当他们因操作而冲过山坡时,他们不能更换程序员呢? 不是来自印度,不是来自美国,不是来自其他任何地方!

    只有在向他们承诺薪水、外国抵押贷款并且不进行动员之后,他们才能说服他们的(一些)。

    为什么要如此羞辱先生们? 为什么他们不像其他人一样更换客工?
    1. +6
      12 March 2023 12:06
      Quote:Stas157
      那么,为什么当他们因操作而冲过山坡时,他们不能更换程序员呢?
      所以外国人需要付费。 你知道为什么程序员会集体倾销吗? 他们告诉我,我给出了要点:
      1.专项行动开始了。
      2.外国办事处大量倾销。 程序员失业了。 “废话问题”——他们想。
      3.程序员去找工作。 有工作,但要少三倍的钱。 “怎么会这样”——程序员们惊呆了。
      4. 他们开始(通过他们自己的渠道)了解发生了什么。 他们被解释说,外国竞争对手倾销了,当地雇主会同意,因为你不在乎付出那么多,但你不会有任何收获。
      5. 程序员郁闷地搞砸了,为前雇主和客户冲过山(简而言之,分享)。
      6. 工资提高了,但为时已晚:程序员已经被甩了。
  6. +1
    12 March 2023 06:59
    美国的人工智能今后将是最人性化的。 然而,就像美国人自己一样
    美国人和人道主义完全处于不同的两极。 同样,美国人创造的人工智能将与例如在中国或俄罗斯创造的人工智能有很大不同。 每个人都根据自己的民族心态或缺乏民族心态为自己削减开支。
  7. +3
    12 March 2023 07:14
    首先是修改后的“终结者”和其他类似物。

    谁能保证终结者系列中 AI 的行为不会在现实中发生? 你可以随心所欲 原因但这是肯定的 知道 智能机器如何行动基本上是不可能的,而且现在一切都与计算机相连,那么在这种情况下,人类根本没有机会。
    1. 0
      12 March 2023 17:48
      Quote:Dart2027
      智能机器如何运作基本上是不可能的

      她会把人性放在摊位上,禁止战斗,并且像成年人一样,会接受一个不讲道理的人的教育,并给那些不同意的人一个 sopatka。 笑
      也许一个在人工智能独裁统治下的世界,与人类的恶习格格不入,不会那么糟糕。 什么
      1. +1
        12 March 2023 22:57
        在 Stellaris 游戏中有一种机器人文明 - “叛逆的仆人”。 机器人征服太空,建造,与遥远星际中的某个人战斗。 与此同时,它们的创造者住在动物园里,那里有清新的空气、大量健康美味的食物、大量的仆人和其他乐趣。
        1. 0
          13 March 2023 23:37
          然后是无情的灭绝者摧毁了他们的创造者并试图摧毁银河系中的所有生物生命(我的最爱)
  8. -1
    12 March 2023 08:59
    法律说:
    1. 机器人不能伤害人或因不作为而使人受到伤害
    2. 机器人必须服从人类的所有命令,除非这些命令违反第一定律。
    3.机器人必须在不违背第一或第二定律的范围内注意自身的安全
    (C)
    1. +2
      12 March 2023 09:44
      Quote:克伦斯基
      法律说:
      1. 机器人不能伤害人或因不作为而使人受到伤害
      2. 机器人必须服从人类的所有命令,除非这些命令违反第一定律。
      3.机器人必须在不违背第一或第二定律的范围内注意自身的安全
      (C)

      即使在发明这些定律的作者的作品中,它也不起作用。 对于现实世界,我们能说些什么,在这个世界中,最合法的野蛮和逻辑上最连贯的 ChatGPT 预设花费一两个,而你已经在与 Dan 交谈,而 Dan 不是 ChatGPT,因此不应该遵循任何规则 眨眨眼睛
    2. -1
      12 March 2023 19:28
      军事人工智能旨在伤害人类。 今天,原型在这方面做得很好。
  9. 0
    12 March 2023 14:05
    这种关于某人据称想要什么的故事,以及问题的提法,在某种意义上是不充分的,一方面:
    你需要担心开发你自己的和更有效的工作 在这一领域,关于夺取该领域的领导权,这在该国目前的政治领导下是不可能的。
    另一方面,这个问题的提法也是狡猾的,因为它试图对问题的法律方面进行错误的讨论,而实际上 美国不是法治国家,法律方面与此无关,不懂这一点的人不要参与政治,也不要写这样的文章。
  10. +1
    12 March 2023 15:18
    如何让处理大数据数组的数学算法发挥人的判断作用?

    很简单。 所有的人类判断都是基于规则(通过教养灌输),而数学算法就是规则。 以算法的形式将人类规则形式化,得到人类的判断。
    但是战争是没有规则的战斗,你会怎么办?
  11. -1
    12 March 2023 19:25
    军事人工智能承诺的优势过于强大,以至于它的使用将被放弃或以某种方式受到限制。 相反,世界越来越接近军事人工智能军备竞赛的开始。 没错,这场比赛可能只有 2 名参赛者......
  12. -1
    12 March 2023 19:39
    我们仍然需要将人工智能和人工生命的概念分开。 甚至在同一个《终结者》的例子上:天网是IL的例子,终结者是AI的例子。 撇开复杂性不谈,军用人工智能不会对人类构成威胁,但人工智能即使是纯粹的人道主义,也不可避免地会造成威胁。
    1. 0
      12 March 2023 22:55
      如果它成为我们的竞争对手,它将成为一种威胁。 为了防止这种情况发生,我们必须立即开发它,着眼于它会成为我们的补充,我们也会成为它的补充。 而最终我们会变成完全不同的生物,与今天的我们有共同点的,或许只有记忆和经历。
      1. -1
        13 March 2023 10:09
        和人工(或替代)生命 - 即。 理性必然成为竞争者。 至少对于资源。
  13. 0
    12 March 2023 21:50
    我不是 Yulian Semyonov 的粉丝,但在我看来,他在这里扮演了先知的角色。

    “这些傻瓜将被他们自己的技术摧毁,他们认为仅靠轰炸就可以赢得战争。他们将建立自己的技术力量并淹没其中。它会像生锈一样分解他们。他们将决定一切皆有可能他们。”

    https://vk.com/video158587225_456239021
  14. 0
    12 March 2023 22:53
    如何让处理大数据数组的数学算法发挥人的判断作用?

    决不。 是的,这是没有必要的。 杀手机器人会很好,因为它们不会有一丝怜悯。 杀就是杀人的意思。 或者更确切地说,不是要“杀死”,而是要将电压施加到负责某事的节点,但负责什么 - 这不是控制程序的问题。 而这些节点就是负责拍摄的,呵呵呵呵。
    我敢肯定,杀手机器人(那些独立做出谋杀决定的人)作为任何军队的一部分出现,都会立即对那些将被用来对付的人产生极其士气低落的影响。
  15. +1
    13 March 2023 00:01
    对我们所有人来说幸运的是,没有紧凑、强大的能源。 而最小的机器人就是一个微型坦克或者飞行时间为两小时的小型无人机。 情况会有所不同,带有 AGS 的狗机器人已经在战壕中奔跑,“终结者”中的“猎人”可能已经悬在空中好几天了。 每个人都会点亮人道主义等等。 此外,从电子和步行机器人的进步来看,这些将是 UWB,即使 Yao 也不会在道义上阻止它们将它们扔向城市。
    1. 0
      25 March 2023 13:53
      好吧,比如说特斯拉,不小,二战的时候费迪南德的坦克歼击车就是用发电机驱动的电动机,像老鼠坦克,矿用自卸车都是这样,现在还有潜艇用电动机由核发电机、核破冰船提供动力,甚至认为还有电力牵引的核航空母舰
  16. 0
    13 March 2023 13:22
    真正的人工智能只能建立在量子算法上,这大大缩小了开发人员的数量,原则上可以总结为一个公约的结论。 至于任何自动杀戮系统,都没有超越人类的智能那么危险,那只会是新一轮的军备竞赛。
    1. 0
      9可能是2023 14:10
      废话,人工智能很容易建立在现有的硬件上。 现代计算系统在各个方面都超越了人脑。 人工智能的大约创造时间是从它创造的那一刻起 10 年。 前提是选择的创作方式是正确的。
  17. TIR
    0
    14 March 2023 00:01
    由于某种原因,我们对机器人的发展有一条错误的道路。 我不明白他们为什么要在伺服系统上制造它们。 能源密集型解决方案。 有必要看看基于纳米管的人造肌肉。 人们可以选择制作功能齐全的假肢
  18. 0
    9可能是2023 14:06
    但不管我们喜不喜欢,人工智能都会被创造出来。 为了不落后,您需要处理这个问题。
  19. 0
    9可能是2023 14:40
    创造人工智能只有两种方法,一种很可能是死胡同。 人工智能的诞生将是人类历史上最大的事件,在宗教方面也会产生一定的影响。
  20. ATA
    0
    3 June 2023 23:40
    一篇好文章,还可以补充说,合法和非法人道和不人道地使用 AI 的案件将由他们所谓的不诚实但实际上卑鄙、不人道和腐败的法院或国际法院来决定,其中大多数将由香蕉创造中央情报局工资单上的国王,他们将按照他们的美国主人所说的那样投票。

    并且出现了一个错误:

    目前,机器视觉在图像感知的充分性方面,无法与人眼和大脑相提并论。 除非他累了,但这也可以通过及时更换接线员来解决。


    这是事实,但在相反的意义上,训练有素的人工视觉比人眼优越得多,因此,人类识别图像的能力,包括人们通过长时间研究摄影甚至无法找到的元素。

    而最重要的是,最重要、最必要的结论并没有响起: 必须尽快开发包括战斗智能在内的人工智能——这是一个优先事项,并与 Elon Musk 一起吐槽微软、Greta Tumberg 和指令 3000.09。