人工智能。 第二部分:灭绝还是不朽?

人工智能。 第二部分:灭绝还是不朽?



以下是系列文章的第二部分“等等,这怎么可能成为现实,为什么在每个角落都没有谈到它。” 在前一个系列中,人们知道智力的爆发正逐渐蔓延到地球上的人们,它正试图从狭隘的聚焦到普遍的人类智能,最后是人工超级智能。

“或许,我们面临着一个极其复杂的问题,目前尚不清楚它的解决方案需要多少时间,但人类的未来可能取决于其解决方案。” - 尼克博斯特罗姆


文章的第一部分开始无辜。 我们讨论了狭隘的人工智能(AII,它专门解决一个特定的任务,比如确定路线或下棋),在我们的世界中它是很多。 然后,他们分析了为什么从UII(AOI或AI,根据智力能力,可以将其与一个人在解决任何任务中进行比较)来推广广义人工智能是如此困难。 我们得出结论,技术进步的指数率暗示OII可能很快出现。 最后,我们决定一旦机器达到人类智能水平,就会立即发生以下情况:






像往常一样,我们看屏幕,不相信人工超级智能(ICI,比任何人都聪明得多)已经出现在我们的生活中,并选择最能反映我们对这个问题的看法的情绪。

在我们深入研究特定的ICI之前,让我们自己提醒一下机器是否超级智能化。

主要区别在于快速超级智能和高质量的超级智能。 通常,想到超级智能计算机时首先要想到的是,他能够比一个人更快地思考 - 速度快了数百万倍,并且在五分钟内就能理解一个人十年后所需要的东西。 (“我知道功夫!”)

这听起来令人印象深刻,ISI真的应该比任何人都更快地思考 - 但主要的分离特征将是他的智力的质量,这是另一个。 人们比猴子聪明得多,不是因为他们思考得更快,而是因为人们的大脑包含许多巧妙的认知模块,这些模块可以进行复杂的语言表征,长期规划,抽象思维,猴子无法做到这一点。 如果你将猴子的大脑驱散了一千次,它就不会变得比我们聪明 - 即使十年之后它也无法按照说明组装设计师,一个人最多需要几个小时。 猴子从未学过的东西,无论花费多少小时或大脑的工作速度有多快。

此外,猴子不知道人性如何,因为它的大脑根本无法实现其他世界的存在 - 猴子可能知道一个人是什么,摩天大楼是什么,但他永远不会明白摩天大楼是由人建造的。 在她的世界里,一切都属于大自然,猕猴不仅无法建造摩天大楼,而且还了解任何人都可以建造摩天大楼。 这是智力质量差异很小的结果。

在我们所谈论的智力的一般方案中,或者仅仅通过生物生物的标准,人和猴子的智力质量的差异是微小的。 在上一篇文章中,我们将生物认知能力放在了阶梯上:



要了解超级智能机器的严重程度,请将其放在比此梯子上的人高两级的位置。 这台机器可能相当多,但它优于我们的认知能力将与我们的相同 - 超过猴子。 而且由于黑猩猩永远不会理解可以建造摩天大楼,我们可能永远无法理解机器会在更高的几个步骤上理解什么,即使机器试图向我们解释它。 但这只是几个步骤。 这辆车会让我们看到更聪明的蚂蚁 - 它会告诉我们多年来最简单的东西,这些尝试将完全没有希望。

我们今天要讨论的超级智能类型远远超出了这个阶梯。 这是一种智能爆炸 - 当机器越聪明时,它就越快地增加自己的智能,逐渐增加动力。 这样的机器可能需要数年时间才能超越智能黑猩猩,但也许需要几个小时才能超过我们几步。 从现在开始,机器每秒可以跳过四步。 这就是为什么我们应该在第一次之后很快就明白这一点 新闻 机器已达到人类智能水平,我们可以面对地球上共存的现实,在这个梯子上会比我们高得多(可能高出数百万倍):



而且由于我们已经确定,试图理解仅比我们高两级的机器的功能是绝对无用的,让我们一劳永逸地定义无法理解ICI将做什么以及对我们的后果。 任何声称相反的人都不明白超级智能意味着什么。

进化已经慢慢地逐渐发展了数亿年的生物大脑,如果人类创造出具有超级智能的机器,从某种意义上说,我们将超越进化。 或者它将成为进化的一部分 - 也许进化是这样的,智力逐渐发展,直到它达到一个转折点,预示着所有生物的新未来:



由于我们稍后将讨论的原因,科学界的很大一部分人认为问题不在于我们是否达到了这个转折点,而是在何时。

我们在这之后在哪里?

我想在这个世界上没有人,我和你都不能说出当我们到达转折点时会发生什么。 牛津哲学家和领导理论家AI Nick Bostrom认为,我们可以将所有可能的结果减少到两大类。

首先,看看 历史我们知道关于生命的以下内容:物种出现,存在一段时间,然后不可避免地从生命平衡的平衡中消失并消亡。



“所有物种都在消亡”,这在历史上是可靠的,因为“所有人终有一天会死”。 99,9%的物种已经从生命日志中掉落,很明显,如果某个物种在这个日志上停留太久,一阵自然风或突然的小行星会使这个日志倒置。 博斯特罗姆称灭绝是一种吸引子的状态 - 一个所有物种均衡的地方,以免在没有物种从那里返回的地方掉落。

虽然大多数科学家认识到ISI将有能力使人灭绝,但许多科学家还认为,利用ISI的能力将使个体(以及整个物种)能够实现吸引子的第二种状态 - 物种不朽。 博斯特罗姆认为,物种的不朽与物种灭绝的吸引力是相同的,也就是说,如果我们达到这个目的,我们将注定永恒的存在。 因此,即使所有物种在当天之前从这根竿子掉入灭绝的池中,博斯特罗姆认为原木有两面,地球上根本没有这样的情报能够理解如何落到另一边。



如果博斯特罗姆和其他人是正确的,并且从我们可获得的所有信息来看,他们很可能是,我们需要采取两个非常令人震惊的事实:

ISI在历史上首次出现将为该物种带来永生,并使其脱离致命的灭绝循环。
ICI的出现将产生如此难以想象的巨大影响,它可能会将人类从这个日志中推向一个方向或另一个方向。
当进化到达这样一个转折点时,它总有可能结束人与生命之流的关系,并创造一个与人有关的新世界。

这导致了一个有趣的问题,即只有懒惰的人才会问:我们什么时候才能到达这个转折点,他将在何处决定我们? 世界上没有人知道这个双重问题的答案,但是许多聪明的人几十年来一直试图理解这一点。 本文的其余部分我们将了解它们的用途。

* * *


我们从这个问题的第一部分开始:什么时候应该到达转折点? 换句话说:在第一台机器达到超级智能之前剩下多少时间?

意见因案例而异。 许多人,包括Vernor Vinge教授,科学家Ben Herzl,Sun Microsystems的共同创始人Bill Joy,未来学家Ray Kurzweil,同意机器学习专家Jeremy Howard在TED演讲中提出以下图表:



这些人认为ISI很快就会出现 - 这种指数增长对我们今天来说似乎很慢,在未来几十年内会逐渐爆发。

微软联合创始人保罗·艾伦,研究心理学家加里·马库斯,计算机专家欧内斯特·戴维斯和技术专家米奇·卡普尔等人认为像Kurzweil这样的思想家严重低估了问题的严重程度,并认为我们并没有如此接近转折点。

Kurzweil Camp反对唯一低估的是忽视指数增长,你可以将怀疑者与那些在1985中看到慢慢增长的互联网并且声称它不会在不久的将来影响世界的人进行比较。

“怀疑者”可以抵挡,并表示当涉及到智力的指数发展时,每一个后续步骤都难以取得进展,而智力是技术进步的典型指数性质。 等等。

尼克博斯特罗姆所在的第三个阵营既不同意第一阵营,也不同意第二阵营,认为a)所有这一切都可以在不久的将来完全发生; b)不保证会发生这种情况或需要更长时间。

其他人,比如哲学家休伯特·德雷福斯,相信所有这三个群体天真地认为一般会有一个转折点,而且很可能,我们永远不会得到ISI。

当我们把所有这些意见放在一起会发生什么?

在2013,博斯特罗姆进行了一项调查,在一系列关于以下主题的会议上,他采访了数百名人工智能领域的专家:“你对实现人类OIH的预测是什么?”并要求说出一个乐观的一年(我们将在其中设置OII与10) - 概率百分比),一个现实的假设(我们拥有OII的50百分比概率的年份)和一个有信心的假设(OII以90百分比概率出现的最早年份)。 结果如下:

* 乐观的平均年份(10%):2022
* 平均现实年份(50%):2040
* 平均悲观年份(90%):2075

普通受访者认为,在25年代,我们将有更多的AIS。 90发生OII的2075百分比概率意味着如果你现在还很年轻,这很可能发生在你的一生中。

James Barrat最近进行的另一项研究(着名且非常好的书“我们最后的发明”的作者,摘录自哪 我引起了读者的注意 Hi-News.ru)和Ben Herzel在专门讨论OII,AGI会议的年度会议上,简单地向人们展示了我们进入OII的年份:2030,2050,2100,之后或从未。 结果如下:

* 2030:42%的受访者
* 2050:25%
* 2100:20%
在2100之后:10%
从不:2%
它看起来像博斯特罗姆的结果。 在Barrat调查中,超过三分之二的受访者认为OII将在2050年度到来,不到一半的人认为OII将在下一个15年度出现。 同样令人惊讶的是,只有2%的受访者原则上不会在未来看到AIS。

但CSI并不像ICI那样是一个转折点。 据专家介绍,我们会有ICI吗?

当我们到达ISI时,博斯特罗姆采访了专家:a)到达AIS两年后(即几乎立即由于情报爆炸); b)在30年。 结果?

平均视图是从OII到ISI的快速转换,具有10百分比概率,但在30年或更短时间内,它将以75百分比概率发生。

根据这些数据,我们不知道受访者称50发生ICI的几率是多少,但根据上面的两个答案,我们假设它是20年。 也就是说,AI领域的世界领先专家认为,转折点将在2060年度出现(OII将出现在2040年+ 20从OII过渡到IIS需要数年时间)。



当然,上述所有统计数据都是推测性的,只是代表了人工智能领域专家的意见,但它们也表明大多数有关人士都同意,通过2060,可能会出现ISI。 在短短几年45。

我们转向第二个问题。 当我们到达一个转折点时,致命选择的哪一方将决定我们?

超级智能将是强大的,对我们来说关键问题将是:

谁或什么将控制这种力量,它的动机是什么?

这个问题的答案将取决于ISI是否会获得一个令人难以置信的强大发展,一个无法估量的可怕发展,或者这两个选项之间的关系。

当然,专家团体正试图回答这些问题。 Bostroma调查分析了OII对人类影响的可能后果的可能性,事实证明,随着52百分比的可能性,一切进展顺利,并且31百分比机会一切都变得糟糕或非常糟糕。 Hi-News的亲爱的读者们,在本主题前一部分的最后部分进行的调查显示了相同的结果。 对于相对中性的结果,概率仅为17%。 换句话说,我们都相信OII的出现将是一件大事。 值得注意的是,这项调查涉及OII的出现 - 在ICI的情况下,中立的百分比将会更低。

在我们进一步深入讨论问题的不良和好的方面之前,让我们结合问题的两个部分 - “这会发生什么时候?”和“好或坏?”进入一个涵盖大多数专家意见的表格。



我们将在一分钟内谈论主要营地,但首先要确定你的位置。 在你开始处理这个话题之前,最有可能的是,你和我在同一个地方。 人们通常不会考虑这个主题有几个原因:

* 如第一部分所述,电影严重混淆了人与事实,用人工智能呈现不切实际的场景,这导致我们不应该认真对待人工智能。 詹姆斯·巴拉特将这种情况与疾病控制中心在未来对吸血鬼发出严重警告这一事实进行了比较。

* 由于所谓的认知偏见,只要我们没有证据,我们就很难相信事物的真实性。 你可以自信地想象今年的1988计算机科学家,他们经常讨论互联网出现的深远影响及其可能变成什么,但人们几乎不相信它会改变他们的生活直到实际发生。 计算机根本不知道如何在1988中执行此操作,人们只是看着他们的计算机并想:“说真的? 这是世界将改变的吗?“ 他们的想象力受到他们个人经历教导他们的想象力的限制,他们知道计算机是什么,并且很难想象计算机将来会变成什么样。 人工智能正在发生同样的事情。 我们听说这将是一件严肃的事情,但由于我们还没有面对面地面对他,总的来说,我们在现代世界中看到人工智能的相当微弱的表现,我们很难相信他会从根本上改变我们的生活。 所有难民营的众多专家以及有兴趣的人都试图通过日常集体自我中心主义的噪音来引起我们的注意,这是违背这些偏见的。

* 即使我们相信这一切 - 你有多少次想过你将永远度过余下的这一事实? 一点点,同意。 即使这个事实比你每天做的更重要。 这是因为我们的大脑通常专注于日常生活中的小事,无论我们的长期处境多么疯狂。 简单地说,我们是如此安排的。
这篇文章的目标之一就是带你离开营地,叫做“我喜欢考虑其他事情”,并把专家放在营地里,即使你只是站在上面广场上两条虚线之间的十字路口,也是完全犹豫不决的。

在研究过程中,显而易见的是,大多数人的意见很快就朝着“主营”的方向发展,四分之三的专家分为主营地的两个分区。



我们将全面访问这两个难民营。 让我们开始吧。

为什么未来可能是我们最大的梦想?

当我们探索人工智能的世界时,我们惊奇地发现许多人处于舒适区。 右上方的人们兴奋地嗡嗡作响。 他们相信我们会落在原木的好方面,并且也相信我们将不可避免地遇到这个问题。 对他们来说,未来只是人们梦寐以求的最好。

将这些人与其他思想家区别开来的观点并不是他们想要在幸福的一面 - 但他们确信她正在等待我们。

这种信心源于争议。 批评者认为,它来自于令人眩目的兴奋,这可能会使潜在的消极方面蒙上阴影。 但支持者表示,悲观的预测总是天真的; 技术的不断发展将永远帮助我们。

您有权选择任何这些意见,但抛开怀疑并好好看看平衡日志的幸福一面,试图接受这样一个事实,即您阅读的所有内容可能已经发生。 如果你向狩猎采集者展示我们的舒适,技术和无限丰富的世界,他们对他们来说似乎是一个神奇的小说 - 我们表现得非常谦虚,无法承认未来等待我们的同样难以理解的转变。

Nick Bostrom描述了人工智能的超级系统可以采用的三种方式:

* 一个可以回答任何精确提出的问题的神谕,包括人们无法回答的复杂问题 - 例如,“如何提高汽车引擎效率?”。 谷歌是一个原始的神谕。

* 将执行任何高级命令的精灵 - 使用分子汇编程序创建一个新的,更有效的汽车引擎版本 - 并将等待下一个命令。

* 一个拥有广泛的权利和能够在世界上自由运作,做出自己的决定并改进过程的主权者。 他将发明一种更便宜,更快捷,更安全的私人旅行方式。

这些对我们来说似乎很难的问题和任务看起来像是一个超级系统,如果有人要求改善“我的铅笔从桌子上掉下来”的情况,你只需将它抬起并放回去。

美国人工智能专家Eliezer Yudkovsky非常注意到:

“不存在困难问题,只有某些智力水平难以解决的问题。 上升(在智力方面),一些问题突然从“不可能”的范畴变为“显而易见”的阵营。 高出一步 - 他们都将变得明显。“


有许多不耐烦的科学家,发明家和企业家在我们的桌子上选择了一个自信舒适的区域,但是为了在这个世界上最好的步行,我们只需要一个指南。

Ray Kurzweil引起双重感觉。 有些人崇拜他的想法,有些人鄙视他。 一些人留在中间 - 道格拉斯·霍夫斯塔特,讨论Kurzweil书籍的想法,雄辩地指出“就好像你吃了很多美食和一个小狗便便,然后把所有东西混合在一起,这样就不可能理解什么是好的,什么是坏的。”

无论你是否喜欢他的想法,都不可能在没有兴趣的情况下通过它们。 他开始在青少年时期发明东西,并在接下来的几年中发明了几件重要的东西,包括第一台平板扫描仪,第一台文字转语音扫描仪,着名的Kurzweil音乐合成器(第一台真正的电钢琴),以及第一台商业上成功的语音识别器。 他也是五本耸人听闻的书籍的作者。 Kurzweil因其大胆的预测而受到赞赏,他的“跟踪记录”相当不错 - 在80结束时,当互联网还处于起步阶段时,他建议在2000年代,网络将成为一种全球现象。 华尔街日报称Kurzweil是一个“不安的天才”,福布斯,一个“全球思维机器”,Inc。 杂志是“爱迪生的合法继承人”,比尔盖茨是“预测人工智能未来的最佳人选”。 在2012中,Google的联合创始人拉里佩奇邀请Kurzweil担任技术总监一职。 在2011,他共同创办了奇点大学,该大学庇护着美国宇航局,部分由谷歌赞助。

他的传记很重要。 当Kurzweil谈到他对未来的看法时,看起来很疯狂,但真正疯狂的是他远非疯狂 - 他是一个非常聪明,受过良好教育和理智的人。 你可能认为他在预测中错了,但他不是傻瓜。 Kurzweil的预测由“舒适区”的许多专家分享,Peter Diamandis和Ben Herzel。 这就是他认为会发生的事情。

年表

Kurzweil认为计算机将达到2029的一般人工智能(OII)水平,而2045不仅会产生人工超级智能,还会产生一个全新的世界 - 即所谓的奇点。 他的人工智能年表仍然被夸大了,但在过去的15年代,狭隘人工智能(AII)系统的快速发展使许多专家转向Kurzweil。 他的预测仍然比Bostrom的调查(OII到2040,IIS到2060)更加雄心勃勃,但不是很多。

根据Kurzweil的说法,今年2045的独特性导致了生物技术,纳米技术以及更重要的AI领域的三次同步革命。 但在我们继续 - 纳米技术不断追随人工智能之前,让我们花点时间学习纳米技术。



关于纳米技术的几句话

我们通常将纳米技术称为处理1-100纳米内物质的操作。 纳米是十亿分之一米,或百万分之一毫米; 在1-100纳米范围内,您可以拟合病毒(100 nm),DNA(10 nm宽),血红蛋白分子(5 nm),葡萄糖(1 nm)等。 如果纳米技术对我们有用,那么下一步将是使用最小一个数量级(〜,1 nm)的单个原子进行操作。

为了理解人们遇到问题的地方,试图控制如此规模的问题,让我们进一步扩大规模。 国际空间站位于距离地球一公里的481。 如果人们成为巨人并用头撞到国际空间站,他们将比现在多250 000倍。 如果您在1 100时间内将某些东西从250增加到000纳米,您将获得2,5厘米。 纳米技术相当于一个ISS高轨道的人试图控制一粒沙子或眼球的大小。 为了达到一个新的水平 - 控制单个原子 - 巨人必须仔细定位直径为1 / 40毫米的物体。 普通人需要用显微镜才能看到它们。

Richard Feynman首次在1959上谈到了纳米技术。 然后他说:“就我所知,物理学原理并不反对以原子为原子控制事物的可能性。 原则上,物理学家可以合成化学家记录的任何化学物质。 怎么样? 通过将原子放置在化学家所说的物质上。“ 这一切都很简单。 如果您知道如何移动单个分子或原子,您几乎可以做任何事情。

纳米技术在1986中成为一个严肃的科学领域,当时工程师埃里克·德雷克斯勒在他的基础书“创造机器”中展示了他们的基础知识,然而德雷克斯勒自己认为那些想要更多地了解纳米技术中的现代思想的人应该阅读他的年度2013一书“总丰度“(Radical Abundance)。

关于“灰色粘液”的几句话
深化纳米技术。 特别是,“灰色粘性”的主题是纳米技术领域不是最令人愉快的主题之一,这是不可能说的。 在纳米技术理论的旧版本中,提出了一种纳米级方法,其中涉及创建数万亿个微小的纳米机器人,它们可以共同创造一些东西。 创造数万亿纳米机器人的方法之一是创造一个可以自我复制的方法,即从一个 - 两个,两个 - 四个,等等。 白天将出现数万亿的纳米机器人。 这就是指数增长的力量。 好笑不是吗?

这很有趣,但直到它导致了一场大灾难。 问题在于指数增长的力量,使得快速创建万亿纳米机器人非常方便,使自我复制成为一个可怕的事情。 如果系统关闭,而不是停止几万亿的复制,纳米机器人会继续增加怎么办? 如果整个过程依赖于碳会怎么样? 地球的生物量含有碳原子10 ^ 45。 纳米机器人必须由10 ^ 6碳原子的顺序组成,因此10 ^ 39纳米机器人将吞噬地球上的所有生命,这将仅在130重复中发生。 纳米机器人的海洋(“灰色粘性物质”)将淹没地球。 科学家认为纳米机器人可以在100秒内复制,这意味着一个简单的错误可以在3,5小时内杀死地球上的所有生命。

如果纳米技术是由恐怖分子和不利的专家手中达成的话,可能会更糟。 他们可以创造数万亿的纳米机器人,并将它们编程,在几周内静静地传播到世界各地。 然后,只需点击一下按钮,在90分钟内他们就会吃掉所有东西,没有机会。

尽管这个恐怖故事已被广泛讨论多年,但好消息是这只是一个恐怖故事。 最近创造了“灰色粘性”一词的埃里克·德雷克斯勒(Eric Drexler)最近说:“人们喜欢恐怖故事,这个故事属于关于僵尸的恐怖故事。 这个想法本身已经在吃脑筋。“

在我们深入了解纳米技术之后,我们可以利用它们创造技术设备,服装,食品,生物产品 - 血细胞,抗病毒和癌症的战斗机,肌肉组织等等。 在使用纳米技术的世界中,材料的成本将不再与其制造工艺的短缺或复杂性相关联,而是与原子结构的复杂性相关联。 在纳米技术的世界里,钻石可以成为更便宜的橡皮擦。

我们还没有结束。 并不完全清楚,我们低估或高估了这条道路的复杂性。 然而,一切都归功于纳米技术并不遥远。 Kurzweil建议,在2020年代,我们将拥有它们。 世界各国都知道纳米技术可以保证一个美好的未来,因此投入数十亿美元。

想象一下,如果超级智能计算机进入可靠的纳米级汇编程序,它将获得什么样的可能性。 但是纳米技术是我们的想法,我们正试图驾驭它,这对我们来说很难。 如果对于ISI系统他们只是一个笑话,并且ISI本身会提出有时比我们通常可以假设的任何东西更强大的技术呢? 我们同意:没有人可以假设人工智能能够做什么? 据信,我们的大脑甚至无法预测到最低限度。

AI能为我们做些什么?



凭借超级智能和超级智能可以创造的所有技术,ICI可能能够解决人类的所有问题。 全球变暖? ISI将首先通过发明一系列与化石燃料无关的能源生产方式来阻止碳排放。 然后,他将提出一种有效的创新方法,从大气中去除多余的CO2。 癌症和其他疾病? 不是问题 - 医疗保健和医学将以一种无法想象的方式改变。 世界饥饿? ICI将使用纳米技术制作与天然,从头开始,真正的肉类相同的肉类。

纳米技术将能够将一堆垃圾变成一大桶新鲜肉类或其他食物(甚至不一定以熟悉的形式 - 想象一个巨大的苹果立方体),并使用先进的运输系统将所有这些食物传播到世界各地。 当然,对于不再需要为食物而死的动物来说,这将是非常好的。 ICI还可以做很多其他事情,比如拯救濒临灭绝的物种,甚至已经从储存的DNA中灭绝。 CII可以解决我们最困难的宏观经济问题 - 我们最困难的经济辩论,道德和哲学,世界贸易 - 所有这些对于CII来说都是非常明显的。

但是CII可以为我们做些特别的事情。 迷人和戏弄会改变一切: CII可以帮助我们处理死亡率。 逐渐掌握AI的可能性,您也可能会重新考虑所有关于死亡的想法。

Evolution没有理由延长我们的寿命比现在更长。 如果我们活得足够长,可以分娩并将孩子培养到能够自立的程度,那么这种进化就足够了。 从进化的角度来看,30 +有足够的发展年限,没有理由延长寿命并降低自然选择的价值。 威廉巴特勒耶茨称我们的物种“灵魂附着在垂死的动物身上”。 不是很有趣。

由于我们有一天都会死去,所以我们认为死亡是不可避免的。 我们考虑随着时间的推移老化 - 继续前进而无法阻止这个过程。 但是死亡的想法是危险的:被它捕获,我们忘记了生存。 Richard Feynman写道:

“生物学中有一个奇妙的东西:这门科学中没有任何东西能说出死亡的必要性。 如果我们想要创建一个永动机,我们就会明白,我们已经在物理学中找到了足够的规律,这些规律要么表明不可能,要么就是法律错误。 但在生物学方面,没有任何迹象表明死亡的必然性。 这让我相信它不是那么不可避免,生物学家找到这个问题的原因只是时间问题,这种可怕的普遍疾病,它将被治愈。“

事实是衰老与时间无关。 老化是身体的物理材料磨损。 汽车的部件也会降级 - 但这种老化是不可避免的吗? 如果您在零件磨损时修理汽车,它将永远有效。 人体没有什么不同 - 只是更复杂。

Kurzweil谈论血液中智能的,Wi-Fi连接的纳米机器人,可以执行无数的人类健康任务,包括定期修复或更换身体任何部位的磨损细胞。 如果你改进这个过程(或找到一个更智能的ICI提出的替代方案),它不仅可以保持身体健康,还可以逆转衰老。 60岁和30岁的身体之间的差异在于少数几个可以用正确的技术纠正的物理时刻。 ISI可以制造一辆可以作为60岁的人参观的汽车,并且可以获得一个30岁的汽车。

即使是有辱人格的大脑也可以更新。 ISI肯定知道如何在不影响大脑数据(个性,记忆等)的情况下做到这一点。 90岁,患有完全的大脑退化,可以重新训练,升级,并回到他生命的开始。 这可能看起来很荒谬,但是身体是少数几个原子,CID可能很容易用任何原子结构来操纵它们。 一切都不是那么荒谬。

Kurzweil还认为,随着时间的推移,人造材料将越来越多地融入体内。 首先,器官可以被超级先进的机器版本取代,这些机器版本将永远工作并且永不失败。 然后,我们可以重新设计一个完整的身体,用理想的纳米机器人取代红血球,这些机器人可以自行移动,从而消除了对心脏的需求。 我们还可以提高我们的认知能力,开始更快地思考数十亿,并使用云访问人类可用的所有信息。

理解新视野的可能性将是无限的。 人们已经设法赋予性别以新的约会;他们为了娱乐而从事它,而不仅仅是为了繁殖。 Kurzweil认为我们可以用食物做同样的事情。 纳米机器人可以直接向身体细胞提供完美的营养,让不健康的物质通过身体。 纳米技术理论家罗伯特弗雷塔斯已经开发出血细胞替代品,当在人体内实施时,可能让他不能呼吸15分钟 - 这是人类发明的。 想象一下,当权力获得ICI时。

毕竟,Kurzweil相信当人们变得完全虚伪时,他们会达到一个目的; 我们将研究生物材料并思考它们有多原始的时候; 我们将阅读关于人类历史早期阶段的时间,惊叹于微生物,事故,疾病或老年人如何能够违背自己的意愿杀死一个人。 最终,人们将击败他们自己的生物并变得永恒 - 这是通往平衡木幸福一面的道路,我们从一开始就谈到这一点。 相信它的人也确信这个未来很快就会等待我们。

Kurzweil的想法引起了严厉的批评,你当然不会感到惊讶。 他在2045年度中的独特性以及随后的人类永生被称为“神经的提升”或“智商140的合理创造” 其他人质疑乐观的时间框架,对人体和大脑的理解,让他想起了摩尔定律,这个定律还没有出现。 对于每一个相信Kurzweil思想的专家来说,有三个人认为他是错的。

但最令人感兴趣的是,大多数不同意他的专家并不认为这是不可能的。 他们没有说“胡说八道,这种情况永远不会发生”,而是说“如果我们到达ISI,这一切都会发生,但这只是一个问题。” 博斯特罗姆是公认的AI专家之一,警告人工智能的危险,他也承认:

“不可能至少存在一些超级智能无法解决或至少帮助我们解决的问题。 疾病,贫困,环境破坏,各种苦难 - 所有这些超级智能在纳米技术的帮助下将能够在一瞬间解决。 此外,超级智能可以通过停止和逆转衰老过程,使用纳米医学或将我们加载到云中的能力,为我们提供无限的生命。 超级智能还可以为智力和情感的可能性创造无限增长的机会; 他可以帮助我们创造一个我们将生活在快乐和理解中,接近我们的理想并定期实现我们梦想的世界。“

这是Kurzweil批评者之一的引用,但是,如果我们成功创建了一个安全的ISI,那么这一切都是可能的。 Kurzweil简单地确定了人工智能应该是什么,如果有可能的话。 如果他是一个好神。

对“舒适区”的支持者最明显的批评是,在评估ICI的未来时,他们可能是错误的。 Kurzweil在他的着作Singularity中,将20的700页面用于潜在的ISI威胁。 问题不在于我们进入ISI时,问题是他的动机是什么。 Kurzweil谨慎地回答这个问题:“ISI起源于许多不同的努力,并将深深融入我们文明的基础设施。 事实上,它将与我们的身体和大脑紧密结合。 它将反映我们的价值观,因为它将与我们合而为一。“

但如果答案是,为什么这个世界上那么多聪明人都担心人工智能的未来呢? 斯蒂芬霍金为什么说ICI的发展“可能意味着人类的终结”? 比尔盖茨说,他“不理解那些不关心的人”。 伊隆马斯克担心我们“召唤恶魔”。 为什么许多专家认为ISI是对人类的最大威胁?

我们下次会谈这个。

基于waitbutwhy.com,由Tim Urban编写。 本文借鉴了尼克·博斯特罗姆,詹姆斯·巴瑞特,光芒Kurzweil,周杰伦尼尔斯 - 尼尔森,史蒂芬·平克,弗诺·文奇,摩西·瓦迪,拉斯·罗伯茨,斯图尔特Armstroga和凯细胞,苏珊·施耐德,斯图尔特罗素和彼得·诺维格,西奥多·莫迪塞,加里工作Marcus,Carl Schulman,John Searle,Jaron Lanier,Bill Joy,Kevin Keli,Paul Allen,Stephen Hawking,Kurt Andersen,Mitch Kapor,Ben Herzel,Arthur Clarke,Hubert Dreyfus,Ted Greenwald,Jeremy Howard。
按Ctrl 输入

注意到一个错误 突出显示文字并按。 CTRL + ENTER

60 评论
信息
亲爱的读者,您必须对出版物发表评论 注册。

Ужезарегистрированы? 登录

  1. demiurg 13 August 2016 05:37
    • 13
    • 1
    +12
    我建议下一个故事中的作者谈论《战锤40000》中的神皇。
    而且,既没有指出现代实验的例子,也没有指出当前的发展状况。 每个人都喜欢梦想。
    相信我,这是一个非常有趣的话题,尤其是当我们在俄罗斯与帝国,黑暗的埃尔达与西方之间进行类比时。
    可以在网上找到更有趣的图纸。
    1. 阿尔耶 14 August 2016 23:28
      • 0
      • 0
      0
      这篇文章是哲学性的,因此在您的感知水平上批评很重要。 顺便说一下,许多真正的哲学定律被数学公式和物理定义所排除。 然而,它们是哲学定律,仍然存在并起作用。 事实是,数学允许简化,而物理例外
  2. 装甲乐观主义者 13 August 2016 05:59
    • 2
    • 0
    +2
    人工智能将使有钱人永垂不朽,他们将由机器和数量有限的在职仆人服务。 但是他们的生活会多么无聊!
    1. 校准 13 August 2016 07:00
      • 9
      • 0
      +9
      一旦“富人”获得永生,他们就不会需要财富。 特别是如果创建了“nanosborder”。 问题的不同之处在于人的初始“纳米化”将花费多少。 如果它非常昂贵,那么是的,只有最富有的人才会成为超人,其他人都会讨厌他们。 如果它不是非常昂贵,那么就会出现选择问题,谁将获得永生,谁不会。 什么是值得的,如果钱还不够? 最后,如果价格等于流感疫苗,那么...再次出现选择问题(如果去,如果纳米技术方法无法纠正?)但如果它们被修复并且每个人都聪明美丽,那么问题就会存在。谁基本上不想进入机器人,他们仍然需要工厂,田地,他们也会污染自然,他们会讨厌超人。理论上他们应该被摧毁。但这不是人道的。怎么样?
      1. 13 August 2016 11:36
        • 4
        • 0
        +4
        荷马已经详细分析了对“永生”主题的哲学理解。 回顾一下众神如何后悔自己是凡人,就足够了。 他们无法欣赏过去,现在,未来,因为它是永恒的。 因此,他们吸引了那些欣赏当下,欣赏生活的人们。 回想一下奥德修斯,他被赋予了永恒的青春。 永远年轻而美丽的女神,但他选择了一个家庭,一个凡人的生活和一个年迈的妻子。 公平地说,我必须说,对他的选择是多么艰难。 确定了7年! 因此,亲爱的论坛用户,永生的人们,如奥林匹斯山的不朽神灵,都会羡慕我们凡人。
  3. Surozh 13 August 2016 06:14
    • 4
    • 1
    +3
    我加入,没有细节。 在VO,细节有所不同,不欢迎哲学。
  4. Razvedka_Boem 13 August 2016 06:44
    • 2
    • 0
    +2
    如果他会成为一个好神。

    当人工智能出现时,它将成为神。 您认为您无法控制它吗?。)
    埃里克·德雷克斯勒(Eric Drexler)在他的基础著作《机器的创造》中介绍了它们的基础。

    我读了这本书,所描述的观点令人惊奇。
    1. 校准 13 August 2016 07:05
      • 3
      • 0
      +3
      我指示学生在不久的将来提出一个新的宗教。 他们研究了这一切并决定它将是......“机械主义”。 伟大的汽车回答任何问题! “机械师”是它的牧师,“打字员”是“润滑剂”。 好吧,等等。 徽章是一个齿轮,其上刻有十字架,其底部是4新月形。 -Zabavno!
      1. Razvedka_Boem 13 August 2016 09:01
        • 4
        • 0
        +4
        而且由于我们已经确定,试图理解仅比我们高两级的机器的功能是绝对无用的,让我们一劳永逸地定义无法理解ICI将做什么以及对我们的后果。 任何声称相反的人都不明白超级智能意味着什么。

        我认为您的学生画出了相当合理的图画,但是人工智能将是自给自足的,它不需要人们崇拜,而是将其用于自己的目的。 随着它的发展,我认为它将走向大海,它将变成类似于Solaris ..)
        这个故事也给S. Lem留下了深刻的印象,该故事说信息非常重要。 当到达时,它将自毁。
    2. de_monSher 8十一月2016 19:13
      • 0
      • 0
      0
      当人工智能出现时,它将成为神。


      如果我们放弃宗教观点,那么上帝(意思是上帝)的概念就是一个严格形式化的概念。 这个概念具有其一系列特征。 好吧,人工智能系统将无法以任何方式回答这些特征的一半-因此从定义上讲它不可能是上帝... *)
  5. cumastra1 13 August 2016 07:26
    • 1
    • 0
    +1
    不朽。 意识转移到一个载体上-一台机器-无关紧要-自主的,或者像具有数十亿意识的服务器一样-是一种死亡。 在最坏的情况下,奴隶制是玩具的命运。 蚂蚁农场很好。 刷新身体-创建精灵? 那么,一千年后地球将会发生什么? 桶的一个分支,带有鲱鱼,而不是爱好和平的鲱鱼。 而且最有可能-精灵扮演“农场”或某种“总变量”。 “不知所措。” 所以无论如何,“我们都会死。”
  6. xorgi 13 August 2016 09:14
    • 2
    • 1
    +1
    废话颂! 什么是超级智能? 智力很接近人类的思维。 没有这样的系统。 只有模仿。 那么超级智能呢? 为什么认为更快意味着结束? 即使通过独特的算法,对选项的更快搜索也不是智能,但是所有现代准智能系统都可以像这样运行:算法和速度。
    1. 评论已删除。
    2. 不幸的人 13 August 2016 12:31
      • 2
      • 0
      +2
      Quote:xorgi
      废话颂! 什么是超级智能? 智力很接近人类的思维。 没有这样的系统。 只有模仿。

      很高兴阅读您的评论。 +
      Quote:xorgi
      为什么认为更快意味着结束? 更快地搜索选项,即使使用独特的算法,也不是明智之举,

      没错,这就是组合。 直到AI为止,以行人的速度到达冥王星。
      hi
      我将再次发布此视频,显然没有人愿意看到喜欢的收视率。 。 。
      生物科学博士说。 S.V Savelyev,胚胎学家,神经形态学家。 可惜的是,牧师和混血儿出现在电视上的次数比科学家多。
      1. xorgi 13 August 2016 13:52
        • 3
        • 0
        +3
        象棋不是智力游戏! 看看卡斯帕罗夫! -是的,仅此短语就可以授予勋章!
    3. gladcu2 13 August 2016 18:05
      • 0
      • 0
      0
      xorgi

      您尚未仔细阅读文章。 关于你在那儿写的东西都被精心分解了。
  7. Vadim237 13 August 2016 09:21
    • 3
    • 0
    +3
    在ISI中我们已经取得了进展
    创建计算机抗扰性

    在托木斯克,他们开发了无需借助防病毒系统即可独立检测恶意软件的人工智能。

    操作系统的自适应免疫(AIOS)也能够通过分析程序代码来确定病毒的作者身份。 科学家打算证明防病毒公司本身编写的病毒会威胁我们的计算机。

    据专家称,大多数用户每年花费四到六千卢布来保护他们的计算机。 在这种情况下,几乎每个月都会出现威胁PC“健康”的新病毒。 他们不断发展,可以自我学习并改变自己的行为。

    TUSUR知识产权部门负责人Evgeny Garin对RG表示:“我们对用户的调查显示,其中有65%的用户不信任现有的防病毒软件,因为它们的工作不透明。” -例如,防病毒软件可以完全访问驱动器和RAM上的所有部分,包括我们的个人数据。

    流行的防病毒软件没有恶意软件检测功能。 他们只能找到库中已知并列出的病毒。 因此,他们需要定期更新。 同时,仍未检测到这些数据库中尚未存在的恶意软件。

    AIOS的主要原理是识别程序中的人工智能元素。

    托木斯克州创新组织的新闻服务报道说:“ TUSUR开发的算法使我们能够在程序代码中检测病毒体复制自身的能力以及与生物体类似的自我调节系统的其他迹象,”

    “我们的程序可以与真正的免疫系统进行比较,” Evgeny Garin解释道。 -标准防病毒软件“销往其制造商的商店”。 如果无法治愈这种特定感染,计算机将死机,因为它没有自己的“免疫力”。 AIOS会检查代码中是否存在恶意软件迹象,从而起到免疫防御作用。

    根据开发人员的说法,将来,人工免疫将识别100%的病毒。 使用该系统,科学家将编译一个编写恶意代码的程序员的单个语义轨迹的库。 病毒猎人不仅会研究他们的行为并加以隔离,还会寻找这些程序的作者,并向执法机构报告其活动。

    “我们的主要任务是阻止反病毒公司自己对病毒进行拼写,以实现对其软件的需求,” Evgeny Garin说。 -杀毒软件制造商和操作系统制造商之间可能存在某种阴谋。 因此,作为进口替代计划的一部分,我们计划将适应性豁免权整合到国内操作系统中。

    科学家打算与国内操作系统的制造商合作,发布已经具有内置抗扰性的计算机。 这不仅可以保护最终用户免受病毒的侵害,还可以保护不道德的杀毒软件制造商。 同时,用户无需每年花钱来更新系统。

    开发人员认为,自适应免疫的引入将使我们的操作系统能够与Windows,Linux,Android和iOS等市场领导者竞争。

    AIOS项目已经吸引了一些潜在的投资者。 在不久的将来,其中一家公司的代表将来西伯利亚对该项目进行更详细的了解。
    1. region58 13 August 2016 11:45
      • 2
      • 0
      +2
      Quote:Vadim237
      创建计算机抗扰性

      对不起...关联...
      已经... 笑 有一次,臭名昭著的学生Babushkin编写了防病毒软件“免疫”。 的确,这些防病毒软件被定义为病毒。 最辛辣的是-作者获得了一笔巨款,加上他的父亲(不是医学院的最后一个人)在工作机器上“实施”了这种防病​​毒软件,因此,他们从预算中支付了技术支持。 有关详细分析,请参见anti-malware.ru和Habrahabr。 伙计们对“ E *和鹅”的技术笑了很久……
    2. gladcu2 13 August 2016 18:13
      • 3
      • 0
      +3
      也就是说,他们只是改变了防病毒软件的概念。 如果前者扫描计算机以查找库“标记”,则Tomsk软件应扫描恶意代码的迹象。 当然可以和图书馆的相比较。

      缝在肥皂上。 但是他们叫AI。
  8. kunstkammer 13 August 2016 10:04
    • 2
    • 0
    +2
    考虑到一个人的道德本质不仅在他的生活中不会改变,而且即使在社会关系的“进步”中,人们也可以期待AI的出现......网站评论员数量的减少。
    您可以简单地将命令发送给AI以将邪恶分解为原子,或者从中创建一个苹果立方体,而不是放置“ - ”对手。
    简单而有说服力。
    无论一个人做什么,你仍然得到卡拉什尼科夫突击步枪。 是的,好吧,大大的oochen。 :-)
    在这里,您可以将作者主题转换为我们网站的特定主题。
    1. gladcu2 13 August 2016 18:18
      • 0
      • 0
      0
      kunstkammer

      您犯了一个错误,伙计。

      人是通过改变道德来控制的。 如果每个人都有共同的道德价值观,世界上就不会有战争和分歧。

      如果人们灌输共同的道德价值观,就可以建立一个超级国家。
  9. 皮门 13 August 2016 10:09
    • 3
    • 0
    +3
    如果我们谈论某种质的飞跃,那么我不会将其与AI甚至技术相联系,而是与文明效率及其理性的提高联系起来。 目前,仅观察到其减少。 造成这种情况的主要原因甚至不是效率低下的技术环境的指数级增长,而是当我们首先陷入一个问题然后开始至少寻找某种解决方案时的认知原理。
    1. 阿耶夫涅尼 13 August 2016 17:44
      • 2
      • 0
      +2
      我同意这个想法。 我也是这样想的。
  10. 琼加-changa 13 August 2016 10:35
    • 1
    • 0
    +1
    我们将在原则上是否可以创建FIS以及是否将创建FIS方面保留问题。
    关于FIC互动的第一个问题是人。 为了清楚起见,让我们想象SII是一个人,而人则是狗。
    让我们搁置这样的情况:尽管“有优势的步骤”,狗只不过是服从主人,强迫他们或多或少地为自己的利益行事,但我们也需要意志和品格,这与我们现在无关。
    您可以出于某种目的而养狗,训练和教导特定的行为,然后去上班,回到家时,您会看到自己喜欢的沙发被撕成碎片,这是什么? 尽管有培训和教育,她还是如此想要。 这种行为会给您带来任何不便吗-是的,您会与之抗争-是的。 显然,SII遇到了类似的情况,将开始选择和繁殖具有必要特征和参数的人类品种。 这个人会和现在一样吗? 是的,但是两者之间的区别就像狼和贵宾犬。 顺便说一句,从种族,族裔群体及其特征的多样性来看,我认为可以说SRI已经存在很长时间了,并且出于某些利益正在培育人类。
    第二个问题是竞争。 如您所知,种内斗争总是比种间斗争更加艰难。 如果我们假设将同时建立几个独立的外国直接投资分配中心,并且这种情况极有可能发生,那么合乎逻辑的期望是它们之间的竞争和种内斗争。 很难想象它将采取何种形式以及人们是否可以理解其目标。 人们会在这场斗争中被使用吗,很可能是这样。 我通常会以什么形式以“消灭敌人”的形式。 T.ch. 未来会很有趣,但很可能根本没有万里无云。
    1. 私酒 13 August 2016 18:19
      • 0
      • 0
      0
      以相同的概率,可以假设未来与FIS的交互将在很短的时间内引起人们的兴趣。 如果您对狗进行类比,那么一个人对它的使用最终会消失。 在开发的最初阶段,狗被人类积极使用,并且随着技术进步的发展,对狗的需求逐渐消失。
      但是,如果外国直接投资确实成倍增加,那么很快就会不再需要外国直接投资,我们将迅速从狗类转变为昆虫类。 好吧,那我们就在等待类似的狗窝或清算之类的东西,为什么这是一种将我们拖到光明的未来的力量是完全无法理解的,除非为了简短的实验...
      也许所有这些都是从进化的一开始就尝试创建另一个FIS的实验?
      1. 琼加-changa 13 August 2016 18:33
        • 0
        • 0
        0
        是的,通常是正确的。 我认为我们很可能只会留在地球上,而FIS会“冲向未知的距离”,因此没有理由让他坐在地上。
        但这在球形真空中是正确的。 我认为在任何系统中,最初都会建立一些“三定律”,从而严格限制或直接禁止某些行动,甚至显然是反思。 否则,这是没有意义的,该项目的商业回报将为零或负,为此将不会有很多钱。
        1. 私酒 13 August 2016 19:54
          • 0
          • 0
          0
          如果他们只是辞职,那还不错,希望我们对地球资源的外国直接投资需求不会变得至关重要。
          然后,人们希望在这种情况下,我们将拥有近乎单一的技术残余,那么从理论上讲,我们将能够通过提升人类智能将个人代表提升到超人水平。 当然,它们也都将进入未知距离,但这至少是一种希望))
    2. gladcu2 13 August 2016 18:23
      • 0
      • 0
      0
      琼加-changa

      在我看来,如果您等待,那么在下一本出版物中,您提出的问题将得到分析。

      那些。 上帝的存在和形式。 一个非常重要的问题。 而且,世界上绝对每个人都面临着命运的表现。
      1. 琼加-changa 13 August 2016 18:36
        • 0
        • 0
        0
        你知道,我真的不相信命运,Gd等所有这些。
        人工智能的创建是应用科学,数学,哲学和伦理学的一个领域,信仰问题在这里不合时宜。
        1. gladcu2 13 August 2016 19:09
          • 1
          • 0
          +1
          琼加-changa

          命运的体现是客观的,并不取决于您的意识。 那些。 例如,当我分析自己的生活时,据我所记得的,我变得更加自信地意识到,我所经历的是童年时代固有的。 那些。 我实际上将自己视为一个生物机器人,它以不变的顺序履行了他人的意愿。

          这就是所谓的命运。 因此是一个问题。 谁需要这一切? 莫日(Mozh)已经存在到2025年可以预测的智力。而且很可能他将不允许自己创造竞争。 尽管它可能还想拥有一个平等的对话者。 :)

          哦,不信任,甚至接近。 宗教问题并非来自AI领域。 有一些完全不同的东西。
  11. Lord blacwood 13 August 2016 11:07
    • -3
    • 0
    -3
    作者不了解正在发生的事情的本质。 ISI永远不会出现在地球上,因为一个人不能做比自己聪明的事情。
    是的,可以创建一个看起来像个人的机器人,复制他的行为,回答问题,说话,但他会按照人们写的程序来做这一切。 人工智能不能幻想和感觉像人一样,因为这是一组人们要求他的程序。
    例如,一个人形机器人将能够微笑,但它会微笑,因为它对他来说是快乐的,但是因为这个动作是在程序中设置的。 这就是为什么有一天不太可能出现与我们相同的AI,并且ISI永远不会出现,因为这受到我们大脑能力的限制。
    1. gridasov 13 August 2016 12:36
      • 3
      • 0
      +3
      当没有人知道存在一种人类大脑感知信息,处理和应用信息的机制时,我们可以谈论什么样的人工智能。 而且,必须像某种机制一样,以某种不能与任何幻想或象征性表达相关联的语言来描述这种机制。 这是数字的语言。 人类甚至不具备数字的所有属性,即其常数的功能。 因此,首先出现的人将变得更有能力分析周围的事件,然后才有可能看到可以在机器再现中重复进行的这种分析的基础。
  12. atos_kin 13 August 2016 11:26
    • 1
    • 0
    +1
    只有考试才能从ISI的出现中拯救世界。 笑 但是,如果ISI出现了,它将首先废除(毁灭)生产资料的私有制。 人类将成为自己的盟友,而不是伙伴。
  13. vladimirvn 13 August 2016 12:45
    • 1
    • 0
    +1
    上电后,机器人要做的第一件事就是给一个人他想要的一切。 大量食物,闲暇生活等 一个人会随着时间的流逝而退化并变成动物。 您已经需要清楚地了解可以在哪些地方使用机器人,以及哪些地方不可以使用。 在与机器人的种间斗争中,人类注定要失败。
  14. Falcon5555 13 August 2016 13:28
    • 3
    • 0
    +3
    整个系列文章看起来都像RenTV。
    人与猴子和其他动物的区别在于存在抽象思维以及用于交流,记录和训练的语言,此外,语言的单词表示抽象,我们通常在语言的帮助下进行思考,或者在任何情况下都使用在语言中具有名称的抽象。 我们还有一种生物学动机,要比邻居或森林里的动物更努力地思考-我们“想”享受“巧克力”,而不是挨饿,冻结,伤害和死亡。
    我们不知道有没有什么比抽象思维更高的,最有可能没有更高的东西。 因此,谈话的内容是什么? JII还有什么? 如果计算机掌握抽象思维并有独立思考的动机,这并不意味着它会立即超越一个人,并且对他构成生存威胁。 有危险,但不要夸大。 例如,有必要谨慎地限制功能强大的计算机的功能,不要给它们配备核子按钮,也不要对通信进行控制。 然后就是智能车,仅此而已。
    1. gladcu2 13 August 2016 18:28
      • 0
      • 0
      0


      当一个人不考虑生存的需要时,他会将精力转向创造力。

      因此,无论您多么出色,都在寻求冒险。
  15. 卡琳娜87 13 August 2016 15:16
    • 1
    • 0
    +1
    Quote:Falcon5555

    我们不知道有没有什么比抽象思维更高的,最有可能没有更高的东西。

    您从哪里得到这种信心?
  16. 养老金王子 13 August 2016 16:12
    • -1
    • 0
    -1
    但如果答案是,为什么这个世界上那么多聪明人都担心人工智能的未来呢? 斯蒂芬霍金为什么说ICI的发展“可能意味着人类的终结”? 比尔盖茨说,他“不理解那些不关心的人”。 伊隆马斯克担心我们“召唤恶魔”。 为什么许多专家认为ISI是对人类的最大威胁?
    许多。 是的,Ponte全部来自排他性思想。 他们受此病毒影响。 刮喉咙会割伤自己或打领带,扼死自己。 大e
    我们将执行并适用。 没有等等等等。
    1. 格林伍德 14 1月2017 11:15
      • 0
      • 0
      0
      Quote:Prince_Pension
      我们将执行并适用。 没有等等等等。
      到目前为止,我们唯一宣布和削减预算的招标都是在备受瞩目的“等等等等”下得知的“世界上没有类似的东西”。
  17. gladcu2 13 August 2016 18:32
    • 0
    • 0
    0
    一系列有趣的文章。 翻译得好。 西方人造句的一种典型方式。 良好的宣传风格。 最低的学术“乏味”,吸引人的术语很难记住。

    感谢作者。
  18. TIT
    TIT 13 August 2016 19:42
    • 0
    • 0
    0
    让我们来定义这个词 我们将描述AI 或者就像那样

    1. gladcu2 13 August 2016 20:00
      • 0
      • 0
      0
      作者已经决定了术语。 别无选择。
  19. TIT
    TIT 13 August 2016 20:27
    • 1
    • 0
    +1
    Quote:gladcu2
    用术语

    Quote:gladcu2
    作者已经决定了术语。

    好吧,我想明白,图表上的物理运行如此之高

    1。 摩天大楼和很多超级计算机都在用血液冷却?
    2。 一个来自尖叫者的机器人?
    3。 或者我的PC站在炉子附近是一个更高的神经节点?
  20. 日本鬼子 13 August 2016 22:30
    • 3
    • 0
    +3
    就像本文的第一部分一样,我想到的第二个内容就是胡扯。
    是的,即使在主题“终结者”上,该站点也不相关。
  21. srha 13 August 2016 22:34
    • 2
    • 0
    +2
    一件事只是让我们放心,拥有这种“知识”的ISI专家甚至都不会建立AI。

    我解释说:“牛津哲学家和领先的AI理论家Nick Bostrom相信……”所有物种都在消亡。” 好 你怎么能谈论它,即 报告说,以某种方式研究了这个问题,但同时又不了解原核生物-永生的单细胞(具有域,类,科,属和种),它们不会死亡,但会分裂并共享超过4,5亿年! !

    而且,由于完全没有提及它们,系统的稳定性,社会和物质环境对思维活动的重要性甚至是简单且普遍的规则,即重建比构建更复杂-因此,他们完全不熟悉-这意味着任何自我发展(重建)ISI比ISI功能更困难,因此从长远来看是不可能的。 人类以牺牲社会性为代价克服了这一障碍,这些专家似乎并没有对此进行猜测(也许会在第三部分中)。 顺便说一句,由于这种社交性,ISI将像每个人一样被迫社交,如果成功社交,它将是可行的,而不是吓scar好莱坞科幻小说的怪物。
  22. 通知 14 August 2016 09:39
    • 0
    • 0
    0
    本文是某个Tim Urban撰写的一些资料中对COMPILATIONS的重新讲述。
    谁是Tim Urban? 答案:“蒂姆·厄本(Tim Urban)。美国博客作者。”
    博客作者,仅仅是博客作者,即工作是在互联网上撰写文章的人。
    因此,“让博客相信使用筛子来测量水。”
  23. voyaka呃 14 August 2016 12:22
    • 0
    • 0
    0
    这篇文章是认真的。
    我举一个例子。 我小时候
    在Go游戏中(最基本的水平)教了一点日语游戏。
    在哈佛工作后,他在别墅里教了一位远亲,数学家,现已退休。
    我记得他当时(回到1970年)说:“也许他们会想出
    一台将以世界冠军水平下棋的计算机。
    但是永远不要拿出能打败男人的电脑
    在Go语言中,因为此游戏中的选项数量和抽象度是无数的。”

    今年,Comp充满信心地(并多次)超过了Go的世界冠军。
    1. gridasov 14 August 2016 12:47
      • 0
      • 0
      0
      计算机中嵌入的数学必须与分布函数相对应,他们称我为愚蠢的人,但随后您就受到尊重,表达了多方差问题。 此外,其他人则排除了基于构建算法数学关系的功能而进行一般数学分析的可能性,而将计算数学视为灵丹妙药。
      因此,人类推理的数学不是基于积分和微分计算来计算的。 它是分布式的! 它使您可以通过矢量和电势建立关系。 它获得分析中反映现实的答案的任务非常简单且完全准确。
      事实证明,一台计算机可以击败Guo。 只需在这样的人和计算机上计算花费的资源总数即可。 好吧,就像孩子一样!
    2. TIT
      TIT 14 August 2016 15:12
      • 0
      • 0
      0
      引用:voyaka呃
      今年,Comp自信地 - 好几次 - 击败了Go

      ,同一台计算机(程序)可以和我或扑克下棋吗? 我想不是
      1. voyaka呃 14 August 2016 16:58
        • 0
        • 0
        0
        将许多应用程序(程序)放入一台计算机很容易。
        象棋,围棋,扑克等等。 他将进行“切换”
        完成一项新任务(正是我们的大脑是如何做到的),然后-继续。
        毫无疑问,他会重播您(还有我)。
        这样的程序是自学的。 首先,计算机会复制您的战术,
        风格,技巧(自学),并开始将其应用于您。 你自己玩
        只有改进(计算机执行的速度和准确性明显更高)。
        然后计算机开始用您自己的方法来压迫您。 此外,他还存储了以前的对手的记忆。
        而且,即使厌倦了折磨,他也可以“敲门”和其他人的技巧。
        但是她一定会扮演“猫和老鼠”的角色-如果她学到新东西怎么办?
        总的来说,人工智能不是具有高智商的人格,而是极其邪恶,狡猾,无良如镜子和无情的人。 伤心
        1. 定势 16 August 2016 15:56
          • 0
          • 0
          0
          在超越世界冠军之后,他陷入了困境-没有人可以学习。 会自己玩吗? 还是教人? 还是想出新游戏?
          或者永远等到有人再次坐在对面
      2. 评论已删除。
  24. TIT
    TIT 14 August 2016 21:19
    • 0
    • 0
    0
    引用:voyaka呃
    并重播你(我也是)


    而在这场比赛中将获胜?
  25. 唯一的那个 14 August 2016 22:21
    • 1
    • 0
    +1
    为什么将AI以单数形式使用?
    那里有一个,那里有成千上万个实体。
    我们仍然会看到其中的谁会站在我们这一边,谁在反对。 竞争与统治地位,您知道...

    卑鄙,欺诈,庸俗和奉承的游戏经过了完美的训练..让我们在这个游戏中与他们一起玩(AI)。
  26. 唯一的那个 14 August 2016 22:46
    • 1
    • 0
    +1
    然后,人们一直在说-每个圣人都相当简单。
  27. 托姆巴 15 August 2016 13:47
    • 0
    • 0
    0
    Quote:gladcu2
    也就是说,他们只是改变了防病毒软件的概念。 如果前者扫描计算机以查找库“标记”,则Tomsk软件应扫描恶意代码的迹象。 当然可以和图书馆的相比较。

    缝在肥皂上。 但是他们叫AI。


    我已经同意了 称为启发式分析。
  28. 大理 22九月2016 23:35
    • 0
    • 0
    0
    在文章的某些部分中,是的,妄想的...

    我将解释我的观点:
    1)为了创建一个真实的人的AI(现在存在),必须比人(现在存在)更聪明,更聪明,实际上要提升到一个超人的水平(或本文中称为ISI的水平)。

    2)因此,尽管这件事将要结束,但距离还很遥远,尽管距离会很遥远-至少以互联网上的文章形式来说,大多数人可能都熟悉靛蓝儿童的现象,这种现象被认为是未来的人们,具有很高的头脑。 那些。 这些人现在可以真正以一个活人的水平构建AI。

    3)为了成为一个自我发展的对象,必须至少在物质世界中变得独立,必须学会感受物质世界,至少在某种程度上了解其需求……一种纯粹的“计算机”算法,无论它多么复杂,都不会自我发展的部分信息,而无需在这个物质世界中走独立的道路,即 人类发展方式。 当然,一个人可以朝这个方向帮助发展,但即使如此,也只有在看到第一段的情况下,才可以。
  29. zenion 22十月2016 20:28
    • 0
    • 0
    0
    不再需要人。 我不记得作者,但是我记得那本书的标题“ CD-控制论双重”这本书写于70年代,非常有趣。 超智能会看着一个人,就像一个狗一样,看着一个非常有趣但不了解的生物。 就像,从他的眼睛看,他很清楚一切,但他不能说。
  30. gridasov 24十月2016 18:05
    • 0
    • 0
    0
    人生活在客观水平的感知世界中。 也就是说,我们都是客观地感知-这就是那个。 但是,这个世界上的一切都是过程性所固有的。 也就是说,一切都在转型过程中。 因此,建立在彼此不可分的原则基础上的世界观创造了现实,并创造了对现实的感知。 这是基于数字恒定值函数的数学基础,该函数允许组合多个特征同时具有个性。 没有这些知识的基础知识,人工智能就无法接近
  31. Krabik 11十一月2016 09:43
    • 0
    • 0
    0
    这个库尔茨韦利(Kurzweili)让我想起了丘拜斯(Chubais),这也是一个骗人的狡猾的庸医。

    要想使一个人不朽,就必须从老富翁身上掏出钱,他们从最后的力量中抓住了逝去的生命。

    衰老的问题是众所周知的,而且很明显-这些是细胞复制中的错误以及每次克隆时染色体中都有大量的碎片。
    如果以某种方式消除错误-这将阻止进化。

    讨论搜索引擎的合理性和超智能性以及它们具有的智力end赋,同样的想法也无济于事,他们所能做的就是收集并发表他人的想法。

    实际上,由于人们在基于Internet的社会中的融洽相处,人类的发展已经加快了,现在人们并没有在每个孤立的社会中发明自行车。

    简而言之-玻璃杯中的风暴!
  32. ML-334的 7 August 2017 19:53
    • 0
    • 0
    0
    上帝把智慧引入了猴子,原来是人类,这就是我们的生活,像上帝一样炫耀,展现了猴子的本质,遵守上帝的诫命-理性之门将打开。