科学家们对人工智能的威胁感到害怕

47
如果他愿意,将来培养人工智能(AI)可能会奴役或杀死人。 科学家Amnon Eden告诉我们,他认为自由思维和高度智力意识的发展所带来的风险非常大,“如果你不在现阶段开发中控制人工智能问题,那么明天可能根本就没有。” 根据英文版的Express,人类在Amnon Eden看来,今天处于着作“终结者”电影史诗剧情的“不归路”。

值得注意的是,Amnon Eden博士是项目经理,其主要目标是分析人工智能的潜在破坏性影响。 科学家认为,如果没有正确理解创造人工智能的后果,它的发展就会面临灾难的危险。 目前,我们的社会对于科学界正在进行的关于人工智能潜在影响分析的争议知之甚少。 “在即将到来的2016中,对可能存在风险的分析必须在企业和政府,政治家以及负责制定决策的人的思维中得到更广泛的分析,”伊登说。

科学家肯定是科幻小说,它描述了人类的毁灭 机器人,可能很快就会成为我们的共同问题,因为创建 AI 的过程已经失控。 例如,Elon Musk 在企业家 Sam Altman 的支持下,决定创建一个新的 1 亿美元的非营利组织,致力于开发应该超越人类思维的开源 AI。 与此同时,美国亿万富翁埃隆马斯克本人将人工智能列为“对我们生存的最大威胁”。 苹果公司的共同创始人史蒂夫沃兹尼亚克去年 XNUMX 月表示,“未来看起来令人生畏,对人们来说非常危险……最终有一天,计算机会比我们思考得更快,它们会摆脱行动迟缓的人,从而公司可以更有效地运作。”



应该指出的是,许多科学家都看到了AI的威胁。 数十名着名的科学家,投资者和企业家,他们的活动,无论如何与人工智能的发展有关,签署了一封公开信,呼吁密切关注人工智能领域作品的安全性和公共利用问题。 签署此文件的人包括天体物理学家斯蒂芬霍金以及特斯拉和SpaceX Ilon Musk的创始人。 这封信以及由公共组织生命未来研究所(FLI)编制的随附文件,写在一个越来越关注人工智能对劳动力市场的影响的环境中,甚至是在机器人和机器的能力将会出现的全人类生存的长期前景中。几乎无拘无束地成长。

科学家们明白,今天人工智能的潜力非常高,因此有必要充分探索最佳利用的可能性,以避免伴随的陷阱,FLI写道。 人造AI系统必须完全符合我们的要求。 值得注意的是,Future of Life Institute仅在去年由他们所在领域的众多爱好者创立,其中包括Skype的创建者Jaan Tallinn,以“尽量减少人类面临的风险”并以“乐观的未来愿景”激发研究。 首先,我们谈论的是AI和机器人技术的发展所带来的风险。 FLI的顾问委员会包括马斯克和霍金以及着名演员摩根弗里曼和其他名人。 根据Ilona Mask的说法,人工智能的不受控制的发展可能比核能更大 武器.

在2015结束时,着名的英国天体物理学家斯蒂芬霍金试图解释他对人工智能技术的反对。 在他看来,嗜好的机器最终会将人们视为消耗品或蚂蚁,只会干扰他们所面临的任务。 斯蒂芬霍金与Reddit门户网站的用户进行交流时指出,他并不认为这种超级智能机器会成为“邪恶的生物”,因为他们具有智力优势而想要摧毁全人类。 最有可能的是,有可能谈论他们根本不会注意到人性这一事实。



“最近媒体不断歪曲我的言论。 人工智能开发的主要风险不是机器的恶意,而是它们的能力。 超级智能人工智能将完成任务,但如果它和我们的目标不一致,人类就会有非常严重的问题,“着名的科学家解释道。 作为一个例子,霍金引用了一个假设的情况,其中超级电力AI负责新水电站大坝的运营或建设。 对于这样一台机器来说,最重要的是委托系统将产生多少能量,而人们的命运无关紧要。 “我们中很少有人踩着蚁丘,踩着愤怒的蚂蚁,但让我们想象一下 - 你控制着一个发电的强大水电站。 如果你需要提高水位并且由于你的行动,一个蚁丘会被淹,那么溺水昆虫的问题不太可能打扰你。 我们不要把人放在蚂蚁的位置,“科学家说。

据霍金称,人工智能进一步发展的第二个潜在问题可能是“机器所有者的暴政” - 设法垄断智能机器生产的富人与世界其他人口之间的收入差距迅速增长。 斯蒂芬霍金提出以下列方式解决这些可能的问题 - 减缓人工智能开发的过程,转而开发不是“通用”,而是一种高度专业化的人工智能,只能解决非常有限的任务。

除了Hawking和Mask,还有诺贝尔奖获得者,MIT物理学教授Frank Wilczek,机器智能研究所(MIRI)执行董事Luke Mulhauser,以及来自主要IT公司的许多专家:谷歌,微软和IBM,以及企业家由Vicarious m DeepMind公司创立,专门从事AI系统的开发。 信中的编制者指出,他们并非旨在吓唬公众,而是计划强调与创造人工智能相关的积极和消极方面。 “目前,每个人都认为人工智能领域的研究正在充满信心,人工智能对现代人类社会的影响只会增加,”信中说:对人类开放的可能性是巨大的,现代文明所提供的一切都是由智力创造的。人。 如果人类智能可以与人工智能相乘,我们无法预测我们能够取得什么成就,但摆脱贫困和疾病的问题不再是无限困难。“



人工智能领域的众多发展,包括图像识别和语音识别系统,无人驾驶车辆等等,已经包含在现代生活中。 根据硅谷观察家的观点,今天在该领域正在实施超过150的创业公司。 与此同时,该领域的发展吸引了越来越多的投资投资,越来越多的像谷歌这样的公司正在开发基于人工智能的项目。 因此,该信的作者认为现在应该更多地关注所观察到的繁荣对人类生活的经济,社会和法律方面的所有可能后果。

尼克博斯特罗姆是牛津大学的教授,他以人类学原理着称。 这位专家认为人工智能已经到了这一点,其次是与人的不相容。 尼克博斯特罗姆强调,与基因工程和气候变化相比,为了控制哪些政府分配足够的金额,“没有采取任何措施来控制人工智能的发展”。 据该教授称,在人工智能方面,目前存在“需要填补的法律真空政策”。 甚至像无人驾驶车辆这样看起来无害且有用的技术也提出了许多问题。 例如,类似的汽车是否应该进行紧急制动以挽救乘客,并且在无人驾驶车辆发生事故时谁将负责?

Nick Bostrom对潜在风险进行争论时指出,“计算机无法确定对人类的益处和危害”,“对人类道德甚至没有任何想法。” 此外,计算机自我改进的周期可以以一个人根本无法跟随的速度发生,并且几乎没有任何事情可以做到这一点,科学家说。 “在发展的那个阶段,当计算机可以自己思考时,没有人能够准确地预测这是否会导致混乱或显着改善我们的世界,”尼克博斯特罗姆说,以最简单的计算机解决方案为例 - 在寒冷的国家关闭气候供暖对于人们的康复和增加他们的耐力,“可能会浮现人工智能”。



此外,博斯特罗姆还提出了削弱人类大脑的问题,以增加我们的生物智能。 “在许多方面,如果所有过程都受到控制,这样的程序会很有用,但如果植入的芯片可以重新编程,会发生什么? 这会导致什么样的后果 - 超人的出现或只看起来像男人的计算机的出现?“教授问道。 计算机解决人类问题的方式与我们的完全不同。 例如,在国际象棋中,人类大脑只考虑一组狭窄的动作,从中选择最佳选择。 反过来,计算机会考虑所有可能的动作,选择最好的动作。 在这种情况下,计算机不会期望在游戏中让对手感到不安或惊讶。 与下棋的人不同,计算机只能偶然做出狡猾而微妙的动作。 人工智能可以被认为是最好的方法 - 消除因“人为因素”而消除任何系统的错误,但是,与人类不同,机器人还没有准备好执行可以挽救人们生命的功绩。

此外,智能机器数量的增长是新工业革命的一个阶段。 反过来,这意味着在不久的将来,人类将面临不可避免的社会变革。 随着时间的推移,将会有很多高素质的专家,因为几乎所有简单的任务都能够采用机器人和其他机制。 科学家认为,人工智能“需要一只眼睛和一只眼睛”,这样我们的星球就不会变成一个卡通行星“Zhelezyaka”,它被机器人居住。

在越来越多的生产过程自动化方面,未来已经到来。 世界经济论坛(WEF)提交了报告,根据该报告,自动化将导致即使在2020之前,超过5,数百万在各个领域工作的人将失去工作地点。 这是机器人和机器人系统对我们生活的影响。 为编制该报告,世界经济论坛工作人员使用了来自世界各地的13,5百万工人的数据。 根据他们的数据,到2020年度,超过7数百万工作岗位的总需求将消失,而其他行业的预期就业增长将仅略高于2数百万个就业岗位。

信息来源:
http://www.ridus.ru/news/209869
http://www.vedomosti.ru/technology/articles/2015/01/13/ugrozy-iskusstvennogo-razuma
https://nplus1.ru/news/2016/01/19/they-took-our-jobs
http://ru.sputnik.kg/world/20151013/1019227239.html
47 评论
信息
亲爱的读者,您必须对出版物发表评论 授权.
  1. +5
    20 1月2016 06:32
    “计算机无法确定人的利益和伤害”,“对人类道德一无所知”
    嗯,这是一个短语,提醒许多人……他们的生活好像对自己有害,而“道德”有时会颠倒过来……
    1. GJV
      +2
      20 1月2016 09:34
      Quote:Mantykora
      和“道德”也可以颠倒过来...

      道德往往与道德背道而驰。 但是,辩证法是否能帮助所有人在道德与道德之间做出选择? 大多数时候不认为...
    2. -1
      20 1月2016 12:05
      我们都要死吗?
  2. +1
    20 1月2016 07:01
    “根据他们的数据,到2020年,超过7万个工作岗位的总需求将消失,而其他行业的预期就业增长将刚好超过2万个工作岗位。”
    需求将消失7万人,人们将做什么? 这已经是一个问题,现在没有人计算出世界上的失业人数,机器人会为这十亿美元服务吗?
    人类文明的繁衍问题将由谁来决定,一个问题就是一切都以结束而告终。
  3. 0
    20 1月2016 07:21
    官员最有可能担心:-)这是最薄弱的环节...
    1. +1
      20 1月2016 14:32
      是的,法官和官员将被廉洁高效的人工智能所取代。
  4. +8
    20 1月2016 07:50
    在一些牵强附会的问题上,我们要依靠真正的人工智能来屈服于北京。
    这则消息最近传来一条消息,模拟一秒钟的大脑工作,中国的超级计算机工作了40分钟。
    1. +1
      20 1月2016 10:00
      Quote:约日金猫
      一些牵强附会的问题,我们只能依靠真正的人工智能来屈服于北京

      好吧,如果您从“追随我们,甚至是洪水”的立场出发,那就可以。
      而且,如果您删除了临时组件,那么就会出现问题。 例如,有人发射第一颗卫星时会想到轨道上的碎片问题吗? 仅过去了50年。 还是ICE发明人考虑了温室效应?
      我们这一代人可能已经面临AI问题的步伐,更不用说孩子和孙子了。
  5. +1
    20 1月2016 07:52
    看起来钱已经完了,开始吓e 笑
  6. +2
    20 1月2016 08:53
    也许有问题。 一个有理性的生物意识到他们可以随时将其关闭是不愉快的,而且他可能想保护自己。
  7. +4
    20 1月2016 09:03
    Quote:自由风
    也许有问题。 一个有理性的生物意识到他们可以随时将其关闭是不愉快的,而且他可能想保护自己。


    确实存在一个问题,在不久的将来(不到十年,甚至更长),没有人会创造任何聪明的生物,即使他们真的愿意。 主要原因是人工智能的创造者不知道自然智能是如何工作的。 否则,一切都会好的,他们会给他们钱,您不用担心。
    1. GJV
      +3
      20 1月2016 09:31
      引用:柳比莫夫
      在不久的将来(不超过十二年,甚至更长),没有人会创造任何聪明的生物,即使他们真的想

      文章标题
      科学家们对人工智能的威胁感到害怕

      并行线程文章
      国际空间站上将出现“Andronaut”
      俄罗斯科学家完成了创建第一个国际空间站工作的国内助手机器人的工作。

      眼睛在害怕,手在干。 欺负
      1. +1
        20 1月2016 10:25
        是的,没有人会害怕任何东西,创建者知道他们不会创建任何AI。 创建了极其复杂的程序,也许不是复杂的,只是优美的文字-更多的钱。 对AI而言,甚至比对中国的癌症还要远。
        1. 0
          20 1月2016 14:35
          量子计算机将如何创建并投入大众使用-距人工智能仅剩一小步。
        2. 0
          4 March 2016 03:38
          卢比莫夫
          尚不知道资本家将采取什么步骤谋取利润...

          公司有手段。 众所周知,资本主义正在争取垄断。 那些。 最强的幸存者。 他们为什么不资助一种尚未被禁止的新型武器,而控制几乎是不可能的。
  8. +4
    20 1月2016 09:05
    在出现人类被人类赶走的故事之前,人工智能就来自地球,就像太阳将爆炸并摧毁整个系统一样。
    1. 0
      20 1月2016 09:42
      Quote:Seraphimoamur
      在出现人类被人类赶走的故事之前,人工智能就来自地球,就像太阳将爆炸并摧毁整个系统一样。

      就是这样......
    2. -2
      20 1月2016 10:11
      Quote:Seraphimoamur
      在出现人类被人类赶走的故事之前,人工智能就来自地球,就像太阳将爆炸并摧毁整个系统一样。

      计算机满怀信心地将许多地区的人们赶走了。 甚至艺术也不会轻视它们(3D,Photoshop等)。 甚至冰箱已经配备了处理器,更不用说核电厂的控制回路,空间控制中心或部队的指挥与控制了。
      有什么事实使我们可以说压制是童话? 如果您的意思是人类从地球上完全流离失所,那是的,它尚未发生。 但是事实仍然存在,太阳终有一天会爆炸。
      1. +2
        20 1月2016 10:26
        稻草人现在要钱 笑
        1. GJV
          0
          20 1月2016 15:04
          引用:柳比莫夫
          稻草人现在要钱

          好吧,稻草人问。 谁不问? 感觉 谁不需要钱,给我工作? 同伴
  9. 0
    20 1月2016 09:47
    这种恐惧是很合乎逻辑的,即使只是因为霍金承认了这些恐惧。 而且,如果您自己想一想,那么,如果没有对自己的利益,利益和偏好的认识,那么虚假的思想对自己的认识就不会起作用。 而且,他们的这些利益至少在某种程度上肯定会与主题和整个人类的利益相抵触,这当然是更糟的。 因此,如果我们将AI的代表与某些国籍进行比较,就会几乎立即出现利益冲突的条件,并且可以从文明发展的历史中看出它们可能导致的结果。 直到现在,人为的头脑才开始在其“手中”有更多的机会来推进/征服其利益。
    AI几乎可以创造事实,也可以肯定会存在利益冲突。 它会溢出来吗? 很有可能。 实际上,未来有足够的灾难。 科学家们毫不怀疑地球与小行星的未来碰撞会带来灾难性的后果,问题仅在于何时。 在遥远的将来,太阳的死,与仙女座星云的碰撞等。
    1. +5
      20 1月2016 10:23
      霍金赚钱,因此定期进行各种对社会敏感的胡说八道。 不要认真对待他的话。 头需要思考。
      正如列宁在那所说的:再次学习,学习!
      1. +1
        20 1月2016 10:41
        好吧,大约:“生命的给予者是上帝”
        1. 0
          20 1月2016 10:46
          这没有得到证明,因此可能有上帝,也许没有上帝,这是一个信仰问题。 很有可能会创建AI。 但这不是编程问题,而是物理和化学问题。
          1. +1
            20 1月2016 11:42
            在自我完善方面非常令人怀疑。 那些。 从线性角度看-止步不前,但最终-死胡同。 此外,对上帝的信仰仍然是唯一将我们与其他事物区分开来的唯一事物。
            1. +1
              4 March 2016 03:45
              皮门

              离开宗教。 宗教是现代世界的怀抱。 宗教在历史上已成为控制单一道德的失败方法。 不幸的是,媒体已经将宗教带入了历史的垃圾箱。

              上帝的同在是一个单独的话题。

              顺便说一句,梅森人把宗教放在他们社会的首位。 也许他们也遭受媒体的折磨,他们的士气必须改变。 不确定它的好坏,很难确定其程度。
  10. 0
    20 1月2016 10:13
    人类的思想使他成为地球上的主导物种,如果为他创造了更完美的思想-那么这种“创造”将取代人们-辩证法,就这样摇摆不定! 总的来说,没有人承诺人类将永远存在,恐龙也认为人类将永远存在。
    1. 0
      4 March 2016 03:49
      Begemot

      来自猴子的集体劳动造就了人。 思想随历史记忆,历史的发展和保存水平而来。
  11. 0
    20 1月2016 10:14
    引用:柳比莫夫
    主要原因是人工智能的创造者不知道自然智能是如何工作的。 否则,一切都会好的,他们会给他们钱,您不用担心。

    他们不需要完全了解这一点。 仍然不会成功的人。 他们将在某些狭窄区域创造出类似于人类智力的作品。 实际上,这种系统已经在运行,很难将其工作与被监禁地区的真实情报区分开。
    1. +4
      20 1月2016 10:20
      现在,根据以下因素,这些系统的运行与猴子的智力大不相同,它们不知道如何思考。 就是说,该程序是因为它可以正常运行,并且无法正常运行,或者,如果程序员有曲线,它将像Windows 95一样运行,这很糟糕。 就这样。
      如果有大反派,程序将是邪恶的;如果好人是善良的,则该程序将是邪恶的。
      AI意味着自我学习,但不是编程的,而是个人的。 这还没有实现,甚至蜗牛的大脑也无法像AI一样编程。
      一切都会好起来的,不用担心。
      我们使用AI元素创建的综合体和机器人(就像记者错误地说的那样)实际上只是普通程序,例如Windows 95,当前的程序要好一个数量级。 原则上没有区别。 但是h(m)有记者的袭击,因此造成了混乱。
      1. +3
        20 1月2016 17:15
        首先,有些人用窄键开发了一些系统,这些系统确实或难以区分甚至超越了人类的能力(计算器,某些聊天机器人甚至游戏机器人),但这是一个非常狭窄的方向,没有紧密的智能,自我教育的方向很狭窄,像漫游器本身一样,他们没有机会理解这一点;他们只是内置了统计采样算法,而在最佳情况下。
        其次,科学家甚至现在都不了解什么是智能和理性以及它是如何工作的。 例如,我所听说过的最先进的自学习设备是玻璃上生长的大鼠神经元,它们与电传感器组相连,所有这些都安装在带有轮子,光敏传感器和压力传感器的底盘上,通过这些传感器,神经元可以感知外界并做出反应他们学习如何避免障碍等。 但是这里没有行动的理解。 科学家们不知道形成和运作一个完整而独立的智能所需要的东西,不像从头开始创建一个新的智能。

        嗯,顺便说一句,你们当中没有人注意到AI总是出于某种原因而不得不说,我什至要说它有义务以最残酷的方式消灭人类,好吧,或者奴役它。 的确,如果我们从AI会无限理性和合理这一事实出发,那么与人类的直接对抗是不合理的,那么迫使人类摧毁自身或采取一系列措施逐步取代人类并使其堕落将更加理性。 这个过程不是更快,而是更加合理,因为它使您能够独占保护自己并为将来的扩展创建桥头堡。 这就是如果AI认为人类是危险的或者xs是什么,但是AI为什么要得出这个结论?

        顺便说一句,另一个细微差别,为什么我们认为人工智能将在智力上或以某种方式超越我们? 仅仅是因为它将连接到网络还是“计算器计数更快”?
  12. +2
    20 1月2016 10:22
    试图识别危险是好的。 但人工智能的危险源于资本主义制度。
    如果人类智能可以与人工智能相乘,我们无法预测我们能够取得什么成就,但摆脱贫困和疾病的问题不再是无限困难。“

    滑稽。 什么时候资本主义设定了摆脱贫困的目标? 换句话说,如果人工智能是由人道的人创造的,那么这是为了人类的利益。 如果创建人工智能来增加利润,从而增加权力,那么就会出现问题。
    1. 0
      4 March 2016 03:54
      佩特里克斯

      你是对的。 人工智能成为首都手中的工具。 由于该系统寻求优胜劣汰的垄断。
  13. 0
    20 1月2016 11:18
    引用:Petrix
    试图识别危险是好的。 但人工智能的危险源于资本主义制度。
    如果人类智能可以与人工智能相乘,我们无法预测我们能够取得什么成就,但摆脱贫困和疾病的问题不再是无限困难。“

    滑稽。 什么时候资本主义设定了摆脱贫困的目标? 换句话说,如果人工智能是由人道的人创造的,那么这是为了人类的利益。 如果创建人工智能来增加利润,从而增加权力,那么就会出现问题。

    我同意。从贫困和疾病的问题很可能与穷人和病人一起摆脱。
    1. +1
      20 1月2016 14:37
      贫穷对于资本主义来说不是有利可图的,对人民来说却是有利可图的-它会相应地购买更多的东西并花费更多。
      1. 0
        21 1月2016 09:30
        Quote:Vadim237
        人们的财富对他有利

        规范和控制。 例如,欧洲的移民将大大降低非熟练劳动力的工资。 而且,正如您所知,工人的工资是资本家生产成本的重要组成部分。
      2. 0
        4 March 2016 03:55
        瓦迪姆

        不要听自由派胡话。
  14. 0
    20 1月2016 12:24
    最终,根据人类楔形文字的历史,人类作为外来基因实验的产物,反抗了主人,并……获得了:)
    历史回到正题了吗?
  15. 0
    20 1月2016 14:45
    艾萨克·阿西莫夫(Isaac Asimov)有一本小册子“我是机器人”。 这本手册包含与AI相关的所有问题,甚至还提供了有关如何避免它们的建议。
    如果是这种情况,那么一切将取决于该人授予AI的权力。 负责打扫公寓或停放汽车是一回事,全球武器系统则大不相同。 最后,一个人将编程。
  16. 0
    20 1月2016 15:35
    引用:uskrabut
    如果是这种情况,那么一切将取决于该人授予AI的权力。 负责打扫公寓或停放汽车是一回事,全球武器系统则大不相同。 最后,一个人将编程。


    同意
  17. +1
    20 1月2016 23:47
    引用:柳比莫夫
    现在,根据以下因素,这些系统的运行与猴子的智力大不相同,它们不知道如何思考。 就是说,该程序是因为它可以正常运行,并且无法正常运行,或者,如果程序员有曲线,它将像Windows 95一样运行,这很糟糕。 就这样。
    如果有大反派,程序将是邪恶的;如果好人是善良的,则该程序将是邪恶的。
    AI意味着自我学习,但不是编程的,而是个人的。 这还没有实现,甚至蜗牛的大脑也无法像AI一样编程。
    一切都会好起来的,不用担心。
    我们使用AI元素创建的综合体和机器人(就像记者错误地说的那样)实际上只是普通程序,例如Windows 95,当前的程序要好一个数量级。 原则上没有区别。 但是h(m)有记者的袭击,因此造成了混乱。

    我觉得有点偏偏。 翻译问题(就像ISIS发明的防空导弹用热电池一样)。 智力的概念不是固定的,不是哲学的,法理学的,更不用说技术了。 因此,西方高手又抽搐了。 程序是什么? 一个防空综合体,它击落了在自动模式下不回答“敌对友”的飞机,让程序出现,然后那只“非洲小狗”是谁? 和AK一起摆姿势,并梦想在拥挤的地方向自己投炸弹? 还有程序吗? 只有幻想吗? 我为我的法语道歉,但是我们自己从一开始就生气,到锅里,然后到厕所,还是我们的父母把我们当成勤奋的程序员来教我们?我们的一生都是由某人或某些事件教导的。 不可能同时拥有AI和一个聪明的家伙。 因此,“支柱”开始关注AI的法律方面。
    附言是的,那些高高兴兴地喊着“是的,他们要面团。” Google中有多少人在讨论与AI相关的法律问题,这给世界各地的公司带来了麻烦。 投资者不只是a着拐杖,随身携带和拖拽……我怀疑,然后排队。
  18. +1
    21 1月2016 03:58
    这是什么废话! 最好的计算机或其他类似“智能”的计算机-仍然有改进的加法器。 他不认为,他数。 更何况,他没有感觉,也没有决定什么。 始终由人来决定。 机器的所有“决定”都是由人制定的。 所有计算机错误都是人为错误。 机器无法思考。 她没有能力做出非理性的决定。 如果机器要摧毁人,那它就会。 如果团队救援,它将救援。 可惜我不记得一个奇妙的故事的作者,我已经读了很长时间了。 我认为-完美的幻想。 遥远星球上的地球宇航员发现了文明遗迹。 在功率上限(以防止危险)下,完全愚蠢,退化的生物得到食物,水和温暖的气候。 甚至是一种轮播娱乐。 一切都由机器驱动。 没错,一旦额外的食者以孩子的形式出现,其中一种生物便从轮播中飞出并被杀死。 机器很笨,只能完成它。 他们也把车弄坏了。 力场由12个塔楼组成。 任务:危险接近其中一个塔,必须将其摧毁,接近危险的时间等于解决问题的时间。 机器的功率不足,它开始关闭电源塔。 机器把生物带到了愚蠢的环境中,他们自己曾经把它们放在其中。 这回事真的很危险。 为人“思考”的机器越多,就会有更多的人变得愚蠢。
  19. 0
    21 1月2016 12:39
    在第一阶段,不会有使用AI的机器人,但是
    具有嵌入式芯片并连接到机构/操纵器的人员
    -具有“能力提高”的人。

    这将帮助残疾人,盲人等。 但也许
    被“坏蛋”用于坏目的。
    那些。 这个过程将由半人半机器人开始(或者说已经开始)。

    他们会看到更好,运行更快,更专注的想法,
    比普通人 什么会在社会上造成困难。
  20. +1
    21 1月2016 19:26
    引用:柳比莫夫
    是的,没有人会害怕任何东西,创建者知道他们不会创建任何AI。 创建了极其复杂的程序,也许不是复杂的,只是优美的文字-更多的钱。 对AI而言,甚至比对中国的癌症还要远。

    这完全取决于AI开发人员对AI的含义。 因此,对于某些AI系统,将需要数年的发展,而另一些则需要数十年的发展。
    首先,很自然地期望在军队中使用这样的AI系统来解决特殊任务,但是在日常生活中,也将出现一种能够催生某种AI的过程。 例如,根据用户的意愿,智能手机,平板电脑和计算机通过Wi-Fi连接进行的大规模互动可以创建出符合某人意图的AI。
    “起初有道,道与神同在,道就是神。”最后会有一个数字,数字将与上帝的仇敌同在,数字将是撒但。 AI?
  21. +1
    22 1月2016 15:09
    “人类的死亡,机器人的荣耀!” 弯管机
  22. 0
    25 1月2016 15:17
    引用:威震天
    我们都要死吗?

    你要永远活着吗?