人工智能。 第一部分:超级智能的途径

人工智能。 第一部分:超级智能的途径



这个(和其他)文章产生的原因很简单:也许人工智能不仅是讨论的重要话题,而且是未来背景下最重要的话题。 所有那些至少了解人工智能潜力的人,都认识到不可能忽视这个话题。 一些人 - 包括伊隆马斯克,斯蒂芬霍金,比尔盖茨,不是我们这个星球上最愚蠢的人 - 相信人工智能代表着对人类的生存威胁,其规模可与我们作为一个物种完全灭绝相提并论。 好吧,坐下来把所有的点都放在我身上。

“我们正处于变革的边缘,与地球上人类生命的诞生相当”(Vernor Vinge)。

站在这些变化的门槛上意味着什么?


这似乎没什么特别的。 但是你必须记住,在这样一个地方的图表上意味着你不知道你右边的是什么。 你应该这样:



感觉很正常,飞行成功。

未来即将到来

想象一下,一台时光机将您带到了1750年-当时世界上电力供应不断中断,城市之间的联系暗示着加农炮的射击,而所有运输工具都是干草。 假设您到达那里,带一个人进入2015年,以展示这里的情况。 我们无法理解他看到所有闪亮的胶囊在马路上飞来飞去的感觉。 与大洋彼岸的人们交谈; 看一千公里外的体育比赛; 聆听50年前录制的音乐表演; 玩一个可以拍摄照片或捕捉现场瞬间的魔术矩形; 用超自然的蓝色圆点表示其位置的地图; 看着某人的脸,并与他沟通很多公里等等。 对于几乎三百岁的人们来说,所有这一切都是莫名其妙的魔法。 更不用说互联网,国际空间站,大型强子对撞机,核能 武器装备 和相对论。

对他来说这样的经历不会令人感到意外或震惊 - 这些话并没有传达出精神崩溃的本质。 我们的旅行者甚至可能会死

但有一个有趣的观点。 如果他回到1750年并且他变得嫉妒我们想看看他对2015年的反应,他可以和他一起拿一台时间机器并尝试做同样的事情,比如1500年。 到达那里,找一个人,在1750中获得一年并展示一切。 来自1500的那一年,这一年将会非常震惊 - 但不太可能会死。 虽然他肯定会感到惊讶,但1500和1750之间的差异远小于1750和2015之间的差异。 来自1500的一名男子将在物理学的某些时刻感到惊讶,对于欧洲在帝国主义的艰难五分之一下的成就感到惊讶,将在他的头脑中画出一幅新的世界地图。 但1750的日常生活 - 交通,通讯等 - 不太可能让他感到惊讶。

不,对于来自1750的人来说就像他和我一样有趣,他应该走得更远 - 也许是12 000 BC的一年。 甚至在第一次农业革命之前就允许出现第一批城市和文明概念。 如果来自狩猎采集者世界的人,从人们还是另一种动物物种的时候,看到了1750的巨大人类帝国,他们的高教堂,穿越海洋的船只,他们在建筑物“内部”的概念,一切这种知识 - 他很可能已经死了。

然后,在死后,他会嫉妒并想做同样的事情。 几年前,将在12 000 BC年回归24 000。 呃,会带走一个男人并拖延他的时间。 新旅行者会对他说:“好吧,没关系,谢谢你。” 因为在这种情况下,一名男子来自12 000年BC。 即 一个人必须在几年前回到100 000,并首次向当地原住民展示火灾和语言。

如果我们需要将某人带到未来,以致他对死亡感到惊讶,那么进步必须经过一定的距离。 必须达到致命进步点(TSP)。 也就是说,如果在狩猎采集者TSP占用100 000年的时候,下一站已经在12 000 BC中发生了。 即 在它背后,进步已经更快,并从根本上改变了世界到1750年(大约)。 然后花了几百年,我们在这里。

这张照片 - 当人类进步随着时间的推移而变得更快时 - 未来学家Ray Kurzweil将法律称为人类的加速回归 故事。 之所以发生这种情况,是因为更先进的社会有能力以比欠发达社会更快的速度推动进步。 19世纪的人们比15世纪的人们更了解,因此19世纪的进步比15世纪的进步更快并不奇怪,等等。

在较小的规模上,这也有效。 电影“回归未来”在1985年度发行,“过去”在1955年度。 在影片中,迈克尔·J·福克斯一年回到1955时,他对电视的新颖性,苏打水的价格,对吉他声的缺乏热情以及俚语的变化感到吃惊。 当然,这是一个不同的世界,但如果这部电影今天被拍摄,过去是在1985拍摄的,那么差异就会更加全球化。 从个人电脑,互联网,移动电话开始,Marty McFly将会比从1955转到1985的Marty更不合适。

所有这一切都归功于加快回报的规律。 1985和2015年之间的平均进展速度高于从1955到1985年的速度 - 因为在第一种情况下世界更加发达,它在过去30年的成就已经饱和。

因此,成就越多,发生的变化就越快。 但这不应该给我们留下一些未来的暗示吗?

Kurzweil认为整个20世纪的进展可以在20年度的2000年度完成 - 也就是说,在2000中,进展速度是20世纪平均进展速度的五倍。 他还认为,整个20世纪的进展相当于从2000到2014年的进展,而另一个20世纪的进展将相当于今年2021之前的时期 - 即仅仅七年。 几十年后,20世纪的所有进展将每年进行几次,然后 - 仅仅一个月。 最终,加速回报的法则将使我们达到这样的程度:在整个21世纪,1000的进展将是20世纪的进步。

如果Kurzweil和他的支持者是对的,那么2030年会让我们感到惊讶,就像1750家伙会让我们的2015感到惊讶 - 也就是说,下一个TSP只需要几十年 - 而今年的2050世界将与现代的XNUMX世界如此不同会发现。 这不是虚构的。 所以相信许多科学家比你和我更聪明,受教育程度更高。 如果你看一下这个故事,你会明白这个预测是从纯逻辑中得出的。

那么,为什么当我们面对诸如“世界将在35年代变得无法承认”这样的陈述时,我们对我们的肩膀持怀疑态度? 我们怀疑未来的预测有三个原因:

1。 谈到历史,我们以直链思考。 为了展示下一个30年的进展,我们将先前30的进展视为一切可能发生的指标。 当我们思考我们的世界将如何在21世纪发生变化时,我们将迎接20世纪的进步并将其添加到2000年。 同样的错误是我们来自1750的人,当他从1500找到某人并试图让他感到惊讶时。 我们直观地以线性方式思考,尽管我们应该是指数级的。 从本质上讲,未来学家应该尝试预测下一个30年的进展,而不是先前的30,而是根据当前的进展水平来判断。 然后预测将更准确,但仍然超过了大门。 要正确地思考未来,你需要以比现在更快的速度看待事物的运动。

[/ CENTER]

2。 近期历史的轨迹往往看起来扭曲。 首先,当你看到它的一小部分时,即使是陡峭的指数曲线也是线性的。 其次,指数增长并不总是平滑和均匀的。 Kurzweil认为,进步正在变成蛇状曲线。



该曲线经历三个阶段:1)缓慢增长(指数增长的早期阶段); 2)快速增长(爆炸性,指数增长的后期阶段); 3)以特定范式的形式稳定。

如果你看一下最后一个故事,你当前所在的S曲线部分可以隐藏你的感知进度。 1995和2007之间的部分时间用于互联网的爆炸性发展,微软,谷歌和Facebook向公众的呈现,社交网络的诞生以及手机的发展,然后是智能手机。 这是我们曲线的第二阶段。 但从2008到2015的时期是一个不那么突破的一年,至少在技术方面。 那些考虑今天未来的人可能需要花费最近几年的时间来评估整体进度,但他们看不出更大的影响。 事实上,新的和强大的2阶段现在可以酿造。

3。 在谈到未来时,我们自己的经历让我们抱怨老人。 我们根据自己的经验建立了关于这个世界的想法,这种经验将我们最近的增长率设定为“理所当然”。 我们的想象力也是有限的,因为它使用我们的经验来预测 - 但更多时候我们根本没有让我们准确预测未来的工具。 当我们听到对未来的预测与我们对事物工作的日常看法不同时,我们本能地认为它们是天真的。 如果我告诉你你将活到150或250年,也许你根本不会死,你会本能地认为“这是愚蠢的,我从历史中知道每个人在这段时间都死了。” 所以它是:没有人活到这么多年。 但直到飞机发明才有飞机飞行。

因此,虽然怀疑主义对你来说似乎是合理的,但它往往是错误的。 我们应该接受,如果我们拥有纯粹的逻辑并且我们正在等待通常的历史曲折,我们必须认识到,在未来几十年中必须非常非常地改变; 比直觉上想象的要多得多。 逻辑还表明,如果地球上最先进的观点继续向前发展,越来越快,在某些时候,跳跃将是如此严重,以至于它将从根本上改变我们所知道的生活。 在进化的过程中发生了类似的事情,当人变得如此聪明以至于他完全改变了地球上任何其他物种的生命。 如果你花一点时间阅读科学和技术现在正在发生的事情,你可能会开始看到关于下一次巨大飞跃将会是什么的某些线索。

超级智能的途径:AI(人工智能)是什么?

像这个星球上的许多人一样,你习惯于认为人工智能是一种科幻小说的愚蠢概念。 但最近,很多认真的人都对这个愚蠢的想法表示担忧。 有什么问题?

导致AI这个术语混淆的原因有三个:

我们将AI与电影联系起来。 “星球大战”。 “终结者”。 “Space Odyssey 2001年度最佳作品。” 但就像机器人一样,这些电影中的AI是虚构的。 因此,好莱坞录音带稀释了我们的感知水平,人工智能变得习惯,熟悉,当然,生气。
这是一个广泛的应用领域。 它首先是手机中的计算器和自动驾驶汽车的开发,并将在未来发展,将彻底改变世界。 AI意味着所有这些事情,而且令人困惑。
我们每天都使用人工智能,但通常我们甚至不会给自己报告。 正如约翰麦卡锡所言,1956中“人工智能”一词的发明者,“一旦他开始工作,没有人称他为AI”。 人工智能已经变得更像是对未来的神话预测,而不是真实的东西。 与此同时,这个标题也体现了过去从未成为现实的东西。 Ray Kurzweil说,他听到人们将人工智能与80的事实联系在一起,可以将其与“互联网在2000开头的网络公司死亡的声明”进行比较。
我们要清楚。 首先,不要再考虑机器人了。 作为AI容器的机器人有时会模仿人体形态,有时它不会,但AI本身就是机器人内部的计算机。 AI是大脑,机器人是身体,如果它有这个身体的话。 例如,Siri软件和数据是人工智能,女人的声音是这个AI的化身,而且这个系统中没有机器人。

其次,你一定听说过“奇点”或“技术奇点”这个词。 这个术语在数学中用于描述普通规则不再有效的异常情况。 在物理学中,它被用来描述黑洞的无限小和密集点或大爆炸的原始点。 同样,物理定律也不适用。 在1993中,Vernor Vinge撰写了一篇着名的文章,他将这个术语应用到未来的时刻,当时我们的技术智能超越了我们自己 - 而在那一刻,我们知道它将永远改变生活,其存在的通常规则将不再起作用。 Ray Kurzweil进一步阐明了这一术语,表明当加速回归定律达到一个极端点时,当技术进步将如此之快以至于我们将停止注意到其成就时,几乎无限快速地实现奇点。 然后我们将生活在一个全新的世界。 然而,许多专家已经停止使用这个术语,所以让我们和我们不会经常提及它。

最后,尽管有许多类型或形式的人工智能源于人工智能的广泛概念,但其主要类别依赖于口径。 主要有三类:

狭义导向(弱)人工智能(AII)。 CII专注于一个领域。 在这样的AI中,有些人可以击败世界象棋冠军,但就是这样。 有一种可以提供在硬盘上存储数据的最佳方法,就是这样。
一般(强)人工智能。 有时也称为人类AI。 AIS被称为智能计算机,就像一个人 - 一台能够执行人类固有的任何智力行为的机器。 创建OII比AII要困难得多,到目前为止我们还没有达到它。 Linda Gottfredson教授将智能描述为“一般意义上的心理潜能,与其他事物一起,包括推理,计划,解决问题,抽象思考,理解复杂思想,快速学习和从经验中学习的能力。” OII应该能够像你一样轻松地做到这一切。
人工超智能(ICI)。 牛津哲学家和人工智能理论家尼克博斯特罗姆将超级智能定义为“智力,它比几乎任何领域中最优秀的人类思维都要聪明,包括科学创造力,一般智慧和社交技能”。 人工超智能包括一个比一个人聪明一点的计算机,以及一个在任何方向都更聪明的计算机。 ISI是人们对人工智能日益增长的兴趣的原因,以及在这种讨论中经常出现“灭绝”和“不朽”的事实。
如今,人们已经在很多方面征服了AI口径的第一步--AII。 AI革命是从AII到IES到CII的路径。 我们可能无法在这条道路上生存,但它肯定会改变一切。

让我们仔细看看这个领域的领导思想家如何看待这条道路以及为什么这场革命可能比你想象的更快地发生。

我们在这个流中的哪个位置?

狭隘的人工智能是机器智能,在执行特定任务时等于或超过人类智能或效率。 一些例子:

*汽车装有AII系统,从确定防抱死制动系统应该工作的计算机到确定燃油喷射系统参数的计算机。 目前正在接受测试的谷歌自动驾驶汽车将包含强大的FID系统,可以感知并响应周围的世界。

*您的手机是一个小型的UII工厂。 当您使用地图应用程序时,获取下载应用程序或音乐的建议,查看明天的天气,与Siri交谈,或者做其他事情,您正在使用PCB。

*您的垃圾邮件过滤器是一种经典的AII类型。 他首先弄清楚如何将垃圾邮件与可用的电子邮件分开,然后学习如何处理您的电子邮件和偏好。

*昨天你在搜索引擎中寻找螺丝刀或新的等离子,这是一种令人尴尬的感觉,今天你在其他网站上看到了有用商店的优惠? 或者在社交网络中,建议您将有趣的人添加为朋友? 所有这些都是FIA系统,它们协同工作,确定您的偏好,通过互联网融合您的信息,与您越来越近。 他们分析了数百万人的行为,并根据这些分析得出结论,以便出售大公司的服务或改善他们的服务。
*谷歌翻译是另一个经典的AII系统,在某些方面表现出色。 语音识别 - 也是。 当你的飞机着陆时,终端不是由人类决定的。 门票价格 - 也是。 今天世界上最好的跳棋,国际象棋,西洋双陆棋,秃头和其他游戏都是高度针对性的人工智能。
*谷歌搜索是一个巨大的AIM,它使用非常聪明的方法对页面进行排名并确定搜索结果的结果。

而这仅限于消费者世界。 复杂的FID系统广泛用于军事,制造和金融行业; 在医疗系统中(记住IBM的Watson)等等。

这种形式的UIA系统不构成威胁。 在最糟糕的情况下,一辆越野车或编程不良的AII可能导致当地灾难,造成停电,导致金融市场脱轨等。 但是,尽管AII没有权力制造存在主义的威胁,但我们必须更广泛地看待事物 - AII预示着一股飓风等待着我们。 AII领域的每项新创新都为通向AIS和CII的道路增添了一个障碍。 或者,正如Aaron Sayents所指出的那样,我们世界的AII类似于“年轻地球主要肉汤的氨基酸” - 而有一天醒来的生命中的非生物成分。

从AII到OII的路径:为什么这么难?

没有什么能够揭示人类智能的复杂性,试图创造一个同样聪明的计算机。 建造摩天大楼,飞向太空,大爆炸的秘密与重复我们自己的大脑或至少只是理解它相比都是胡说八道。 目前,人类大脑是已知宇宙中最复杂的物体。

也许你甚至不怀疑创建一个OII的难度(一个聪明的计算机,就像一个人,一般而言,而不仅仅是在一个领域)。 创建一台可以在瞬间将两个十位数字相乘的计算机比以往更容易。 创造一个可以看到狗和猫的人,并说出狗在哪里以及猫在哪里都是非常困难的。 创建一个可以击败大师的人工智能? 制造 现在试着让他读一本6岁儿童的书中的段落,不仅要理解这些词,还要理解它们的含义。 谷歌正在花费数十亿美元来做这件事。 复杂的事情 - 比如计算,金融市场的计算策略,翻译语言 - 计算机可以轻松应对,但只需简单的事情 - 视觉,动作,感知 - 没有。 正如唐纳德克努特所说,“人工智能现在几乎所有需要”思考“的东西,但无法应对人们和动物不假思索地做的事情。”

当你想到这个的原因时,你会明白在我们看来最简单的事情,只是看起来如此,因为它们在数亿年的进化过程中已经为我们(和动物)进行了优化。 当您将手伸向物体时,肩膀,肘部和手部的肌肉,关节,骨骼会立即执行长链物理操作,这些操作与您所看到的一致并在三维空间中移动您的手。 这对你来说似乎很简单,因为你的大脑的完美软件负责这些过程。 这个简单的技巧允许您为注册一个新帐户制作一个程序,输入一个简单易懂的单词(验证码)和一个恶意机器人的地狱。 对于我们的大脑来说,这并不复杂:你只需要能够看到。

另一方面,大数字的乘法或国际象棋游戏是生物生物的新活动类型,我们没有足够的时间来完善自己(不是数百万年),因此计算机很容易被击败。 试想一下:您是否愿意创建一个可以增加大数字的程序,或者用数百万拼写识别字母B的程序,用最难以预测的字体,用手或者在雪中?

一个简单的例子:当你看到它时,你和你的计算机都明白这些是两种不同色调的交替方块。



但如果你删除黑色,你会立即描述完整的图片:圆柱体,平面,三维角度,但计算机将无法。



他将描述他所看到的不同色调的各种二维形式,原则上这是真实的。 你的大脑正在做大量的工作,解释深度,阴影的播放,图片中的光线。 在图片下方,计算机将看到一个二维的白色 - 灰黑色拼贴画,而实际上有一个三维的石头。



而我们刚刚确定的所有内容,都是与理解和处理信息有关的冰山一角。 为了达到与人相同的水平,计算机必须理解微妙的面部表情的差异,快乐,悲伤,满足,快乐之间的差异,以及为什么Chatsky是好的,而Molchalin - 不是。

怎么办呢?

创建OII的第一步:提高计算能力

为了使AIS成为可能必须发生的事情之一是增加计算机设备的功率。 如果人工智能系统需要像大脑一样聪明,它需要将大脑与原始计算能力相匹配。

增加这种能力的一种方法是大脑可以产生的每秒计算总数(OPS),你可以通过找出每个大​​脑结构的最大OPS数量并将它们放在一起来确定这个数字。

Ray Kurzweil得出的结论是,对一个结构的OPS及其相对于整个大脑的重量的重量进行专业评估就足够了,然后按比例增加以获得整体评估。 这听起来有点令人怀疑,但是他做了很多次不同区域的不同估计并且总是得到相同的数字:10 ^ 16或10千万OPS的顺序。

世界上最快的超级计算机,中国天河2,已经绕过了这个数字:它能够每秒执行32千万亿次运算。 但天河-2占用720平方米的空间,吃24兆瓦的能量(我们的脑耗仅为20瓦特),耗资390百万美元。 商业或广泛使用不是问题。

Kurzweil建议我们根据1000美元购买的OPS数来评估计算机的状态。 当这个数字达到人类水平 - 10千万亿OPS - OII很可能成为我们生活的一部分。

摩尔定律 - 一种历史上可靠的规则,它确定计算机的最大计算能力每两年翻一番 - 这意味着计算机技术的发展,如人的历史运动,呈指数级增长。 如果我们将其与成千上万的Kurzweil美元的规则进行比较,我们现在可以为10美元支付1000数万亿的OPS。


计算的指数增长:20-21世纪。 正确的幻灯片规则 - 昆虫,老鼠,男人和所有人的大脑; 在左边,每秒计算1000美元; 年底


1000计算能力的计算机能够绕过小鼠脑,比人类弱一千倍。 这似乎是一个糟糕的指标,直到我们记住计算机比1985中的人类大脑弱十亿倍,1995十亿分之一,2005百万分之一。 通过2025,我们必须得到一台经济实惠的计算机,它的计算能力并不低于我们的大脑。

因此,OII所需的原始电力已经在技术上可用。 在10年内,它将走出中国并传播到世界各地。 但仅靠计算能力是不够的。 接下来的问题是:我们怎样才能为人类的智力提供所有这些力量?

创建OII的第二步:给它一个理由

这部分非常复杂。 说实话,没有人真正知道如何使汽车变得聪明 - 我们仍在试图弄清楚如何创造一个人类级别的头脑,可以区分猫与狗,突出B在雪中绘制,并分析二流电影。 然而,有一些前瞻性思维策略,其中一个很好的时刻应该有效。

1。 重复大脑
这个选项类似于科学家和一个非常聪明且对问题反应良好的孩子坐在同一个班级的事实; 即使他们努力学习理解科学,他们甚至都没有赶上聪明的孩子。 最后,他们决定:地狱,只是写下他的问题的答案。 这是有道理的:我们不能创建一个高度复杂的计算机,所以为什么不把宇宙最好的原型之一作为基础:我们的大脑?

科学界正在努力工作,试图弄清楚我们的大脑如何运作以及进化如何创造出如此复杂的东西。 根据最乐观的估计,他们将仅在2030年度成功。 但只要我们了解大脑的所有秘密,其有效性和力量,我们就可以从其创造技术的方法中获得灵感。 例如,模仿大脑工作的计算机体系结构之一是神经网络。 她从一个由输入和输出相互连接的晶体管“神经元”网络开始,并且不知道任何事情 - 就像新生儿一样。 系统“学习”,尝试执行任务,识别手写文本等。 在正确答案的情况下,晶体管之间的连接得到加强,而在错误答案的情况下,晶体管之间的连接被削弱。 经过多个问题和答案循环后,系统形成了针对特定任务进行优化的智能神经编织。 大脑以类似的方式学习,但是以更复杂的方式学习,并且当我们继续研究它时,我们发现了改善神经网络的新的令人难以置信的方法。

更极端的抄袭涉及一种称为全脑仿真的策略。 目标:将真正的大脑切成薄片,扫描每个大脑,然后使用软件准确地恢复三维模型,然后将其翻译成功能强大的计算机。 然后我们将拥有一台能正式完成大脑所能做的一切的计算机:它只需要学习和收集信息。 如果工程师成功,他们将能够以如此令人难以置信的精确度模拟真实大脑,在下载到计算机后,大脑及其记忆的真实身份将保持不变。 如果大脑在他死前属于Vadim,那么计算机将会以Vadim的角色醒来,Vadim现在将成为人类的OII,反过来,我们将把Vadim变成一个非常聪明的ICI,他一定会对此感到高兴。

我们距离完整的大脑仿真有多远? 事实上,我们只是模拟了一个包含302神经元的毫米扁虫的大脑。 人脑包含100数十亿个神经元。 如果试图获得这个数字对你来说似乎毫无用处,那么请记住进步的指数增长率。 下一步将是模仿蚂蚁的大脑,然后会有一只老鼠,然后就会有一颗石头向人扔石头。

2。 试着追随进化的脚步。
好吧,如果我们认为一个聪明的孩子的答案太复杂而无法注销,我们可以尝试遵循其培训和考试准备的脚步。 我们知道什么? 建立一个像大脑一样强大的计算机是很有可能的 - 我们自己大脑的进化证明了这一点。 如果大脑太复杂而无法模仿,我们可以尝试模仿进化。 事实是,即使我们可以模仿大脑,它也可以像是通过荒谬的挥动手来重建鸟类的翅膀来制造飞机。 大多数情况下,我们设法使用面向机器的方法创建好的机器,而不是精确模仿生物学。

如何模拟进化以建立OII? 这种称为“遗传算法”的方法应该是这样的:必须有一个生产过程及其评估,这将一次又一次地重复(就像生物存在“存在”和“通过它们的繁殖能力来评估”)。 一组计算机将执行任务,其中最成功的将与其他计算机“输出”共享其特征。 不太成功将被无情地扔进历史的垃圾箱。 经过多次迭代,这个自然选择过程将带来最好的计算机。 困难在于推导和评估周期的创建和自动化,因此演化过程是独立的。

复制进化的缺点是进化需要数十亿年的时间来做某事,而我们只需要几十年的时间就可以做到。

但与进化不同,我们有很多优势。 首先,它没有远见的礼物,它是偶然的 - 它会产生无用的突变,例如,我们可以在任务集的框架内控制过程。 其次,进化没有目标,包括追求智力 - 有时候在环境中,某些收益不会以牺牲智力为代价(因为后者会消耗更多能量)。 另一方面,我们的目标是增加智力。 第三,为了选择智能,进化需要进行一些第三方改进 - 比如通过细胞重新分配能量消耗 - 我们可以简单地去除多余的电力并使用电力。 毫无疑问,我们将比进化更快 - 但同样,我们是否能超越它还不清楚。

3。 为自己提供电脑
这是科学家完全绝望并尝试编制自我发展计划的最后机会。 但是,这种方法可能是最有希望的。 我们的想法是创建一台具有两项主要技能的计算机:探索人工智能和代码更改本身 - 这不仅可以让他们了解更多,而且还可以改进自己的架构。 我们可以将计算机培训成计算机工程师,使他们自己发展。 他们的主要任务是弄清楚如何变得更聪明。 我们稍后会详细讨论这个问题。

所有这一切都很快就会发生。

硬件和软件实验的快速发展并行运行,AIS可以快速出乎意料地出现,主要有两个原因:

1。 指数增长是密集的,似乎蜗牛的步骤可以迅速变成跨越式 - 这个gif很好地说明了这个概念:


动画:hi-news.ru/wp-content/uploads/2015/02/gif.gif


计算机何时会超越人类智慧? 密歇根湖的体积(以盎司的流量计)等于我们大脑的体积(每秒操作次数)。 计算能力每18个月翻一番。 按照这种速度,你很长时间都不会看到任何结果,但一切都会立即发生。


2。 谈到软件,进展可能看起来很慢,但是一个突破会立即改变前进的速度(一个很好的例子:在地心世界感知的时代,人们很难计算宇宙的工作,但是日心说的发现使一切变得更加简单)。 或者,当涉及到改进自身的计算机时,一切看起来都非常缓慢,但有时系统中只有一个修正案将其与人或先前版本的千倍效率区分开来。

从OII到ICI的道路
在某一点上,我们肯定会获得OII - 一般人工智能,具有一般人类智能水平的计算机。 计算机和人们将共同生活。 或者不会。

事实上,具有与人相同水平的智力和计算能力的OII仍将具有超越人的显着优势。 例如:

Оборудование
速度。 脑神经元以200 Hz的频率工作,而现代微处理器(比我们在创建OII时获得的速度慢得多)以2 GHz的频率工作,或10比我们的神经元快数百万倍。 并且可以以120 m / s的速度移动的大脑的内部通信明显不如计算机使用光学器件和光速的能力。

尺寸和存储。 大脑的大小受到头骨大小的限制,并且不能变大,否则120速度的内部通信需要很长时间才能从一个结构移动到另一个结构。 计算机可以扩展到任何物理尺寸,使用更多设备,增加RAM,长期记忆 - 这一切都超出了我们的能力。

可靠性和耐用性。 不仅计算机内存更人性化。 计算机晶体管比生物神经元更精确,并且不易变质(并且通常可以更换或修复)。 人们的大脑变得更快,电脑可以不停地工作,每天24小时,每周7天。

Программноеобеспечение

具有编辑,升级和更广泛可能性的能力。 与人脑不同,计算机程序可以很容易地修复,更新,用它进行实验。 现代化也可能受制于人脑弱的领域。 负责视觉的人的软件安排得非常好,但从工程的角度来看,他的能力仍然非常有限 - 我们只看到可见光谱。

集体能力。 人们在大集体思想方面优于其他物种。 从语言的发展和大型社区的形成开始,通过写作和印刷的发明,现在通过使用互联网等工具激活,人们的集体思想是我们放大进化王冠的重要原因。 但是电脑仍然会更好。 全球人工智能网络,在一个程序上工作,不断同步和自我开发,无论您在何处获得,都可以立即向数据库添加新信息。 这样一个小组也将能够在一个目标上工作,因为计算机不会像人一样受到特殊意见,动机和个人兴趣的影响。

人工智能最有可能通过程序化的自我改进成为OII,它不会将“人类智慧”看作一个重要的里程碑 - 这个里程碑对我们来说只是重要的。 他没有理由停下这个可疑的水平。 而且鉴于即使是人类级别的OII所具有的优势,很明显,人类智能将在他的智力竞赛中为他提供短暂的优势。

这种发展可能会让我们非常非常惊讶。 事实是,从我们的观点来看,a)允许我们确定智力质量的唯一标准是动物智能,默认情况下低于我们的智力; b)对我们来说,最聪明的人总是比最愚蠢的人聪明。 像这样:



也就是说,虽然人工智能只是试图达到我们的发展水平,但我们看到它变得更聪明,接近动物的水平。 当他达到第一个人类水平 - 尼克博斯特罗姆使用“乡村白痴”一词时 - 我们会很高兴:“哇,他已经像个白痴。 很酷!“ 唯一的事情是,在人们的智慧的一般范围内,从村里的白痴到爱因斯坦,范围很小 - 所以在AI达到傻瓜的水平并成为OII之后,他会突然变得比爱因斯坦聪明。



接下来会发生什么?

爆炸的情报

我希望你觉得它有趣而有趣,因为从这一点来说,我们讨论的主题变得异常和令人毛骨悚然。 我们应该暂停并提醒自己,上面提到的每一个事实都是对最杰出的思想家和科学家所表达的未来的真实科学和真实预测。 请记住。

因此,正如我们上面指出的那样,我们所有关于OII成就的现代模型都包含了AI改进自身的选项。 一旦他成为一个OII,即使他长大的系统和方法也变得足够智能,如果他们愿意的话,可以自我提升。 一个有趣的概念出现了:递归的自我改进。 它的工作原理如下。

某个特定级别的人工智能系统 - 例如一个村民白痴 - 被编程以改善其自身的智能。 已经发展 - 比如爱因斯坦的水平 - 这种系统开始随着爱因斯坦的智慧发展,它需要更少的时间来发展,而且飞跃更大。 它们允许系统超越任何人,变得越来越多。 随着它的快速发展,OII在其知识分子中飙升到天堂般的高度,并成为ISI的超级系统。 这个过程被称为智力爆炸,这是加速回归定律的最明显的例子。

科学家们争论AI如何快速达到OII的水平 - 大多数人认为OII我们将在2040年度进入25年,这在技术发展标准上非常非常少。 继续逻辑链,很容易假设从OII到IIS的过渡也将非常迅速地发生。 像这样:

“在第一个人工智能系统达到最低智能水平之前需要几十年的时间,但它终于发生了。 计算机能够像四岁男一样了解周围的世界。 突然间,在达到这个里程碑的一个小时后,该系统产生了一个伟大的物理理论,它结合了广义相对论和量子力学,这是任何人都无法做到的。 一个半小时后,AI成为ICI,170 000比任何人都聪明。“


为了表征这种程度的超级智能,我们甚至没有合适的术语。 在我们的世界中,“聪明”意味着拥有IQ 130的人,“愚蠢” - 85,但我们没有IQ 12 952人的例子。 我们的统治者不是为此而设计的。

人类的历史清楚而明确地告诉我们:与智慧,力量和力量一起出现。 这意味着当我们创造一个人造的超级智能时,它将成为地球上生命历史上最强大的生物,所有生物,包括人类,都将完全掌握在他的力量中 - 这可能在二十年后发生。

如果我们微薄的大脑能够提出Wi-Fi,那么比我们更聪明的东西能够轻松地计算出宇宙中每个原子在任何特定时间的位置。 所有这些都可以被称为魔法,任何归于无所不能的神的力量都将由ISI支配。 创造一种技术来逆转衰老,治愈任何疾病,摆脱饥饿甚至死亡,管理天气 - 突然变得可能。 地球上所有生命的直接结束也是可能的。 我们这个星球上最聪明的人都同意,一旦人类超级智能出现在世界上,这将标志着上帝在地球上的出现。 而重要的问题仍然存在。

他会成为一个好神吗?


基于waitbutwhy.com,由Tim Urban编写。 本文借鉴了尼克·博斯特罗姆,詹姆斯·巴瑞特,光芒Kurzweil,周杰伦尼尔斯 - 尼尔森,史蒂芬·平克,弗诺·文奇,摩西·瓦迪,拉斯·罗伯茨,斯图尔特Armstroga和凯细胞,苏珊·施耐德,斯图尔特罗素和彼得·诺维格,西奥多·莫迪塞,加里工作Marcus,Carl Schulman,John Searle,Jaron Lanier,Bill Joy,Kevin Keli,Paul Allen,Stephen Hawking,Kurt Andersen,Mitch Kapor,Ben Herzel,Arthur Clarke,Hubert Dreyfus,Ted Greenwald,Jeremy Howard。
按Ctrl 输入

注意到一个错误 突出显示文字并按。 CTRL + ENTER

80 评论
信息
亲爱的读者,您必须对出版物发表评论 注册。

Ужезарегистрированы? 登录

  1. V.ic 6 August 2016 08:15
    • 8
    • 0
    +8
    到2040年,我们将在25年内收到OII,

    我不会活但是...那仅仅是 幸运的是,反之亦然? 加上它。
    1. 不幸的人 6 August 2016 18:42
      • 1
      • 0
      +1
      Quote:V.ic
      但是,我不会活着……但这是否只是幸运的,反之亦然? 加上它。

      比尔博士说。 科学,S.V。Saveliev教授。
  2. pafegosoff 6 August 2016 08:16
    • 4
    • 0
    +4
    好吧,好的,我看了看图片却没有看懂文字。 技术上的奇异是不可避免的。 人类正在等待“美丽的遥远”。
    正如撒旦喜欢重复的那样,我们都会死。 就像谢尔盖·萨维利耶夫(Sergei Saveliev)回忆的那样,“我们都是猴子”。
    1. gladcu2 6 August 2016 19:39
      • 1
      • 0
      +1
      pafegosoff

      弗尔森科的梦想。

      以漫画的形式会很好。 还有图片下的喜欢...
  3. Simpsonian 6 August 2016 08:22
    • 2
    • 0
    +2
    计算能力为1000美元的计算机绕过了老鼠的大脑,比人类的计算机弱一千倍。

    有人问过鼠标吗? 欺负 您的Google突然“翻译成这样”或“天河2”,出了什么问题? 笑
    以及如何计算(这与美元无关) LOL )?
  4. 准尉 6 August 2016 08:56
    • 23
    • 0
    +23
    是的,人类正在等待许多有趣的事情。 就像在苏联那样,那只会给我们俄罗斯科学家一个创造和创造机会。 我记得第一项发明(LDPE管上的天线)能够买到合作公寓。 对于发明选择真实高度(从3个高度)以便将我们的MiG和Su降落在航空母舰上的发明,没有什么。 对于Su-50的多功能AFS,也没有任何问题。 2015年,中国共收到和实施了1万项发明,俄罗斯联邦仅有28万XNUMX千项发明。 我的同事创建了Elbrus超级计算机,现在,我们在做什么。 我很荣幸
    1. gridasov 6 August 2016 12:29
      • 5
      • 0
      +5
      现在,我们无法推进创建从根本上可以在水中制造新的飞机发动机和推进器的新型涡轮机的基本原理,也不能推广具有旋转磁闯转矩的新型电动机器的概念,而根本不能推广新型感应装置和容积电路的方法。平板上的电路。 最重要的是,我们不能以其功能为基础的数字的独特新特性来扩展人工智能的基础,而该特性以前从未使用过。 但这并不意味着值得为此烦恼。 这意味着一切都有时间。
    2. atos_kin 6十一月2016 10:37
      • 0
      • 0
      0
      引用:midshipman
      现在我们在做什么

      他们想建立一个新国家。 AI震惊
  5. ML-334的 6 August 2016 10:04
    • -1
    • 0
    -1
    这篇文章当然是胡扯,人工智能是一个人,其转化水平要高于第一个终结者而低于第二个终结者,也就是说,我们可以转化为某种机制。也就是说,我们是由创造者创造的,并带有与上帝诫命相对应的某个程序。
    1. ML-334的 6 August 2016 13:12
      • 0
      • 0
      0
      人类的发展正在向下滑,从原理上讲,亚当和夏娃在摘下禁果之前是理想的,在我看来,第一个文明拥有的技术可以使人们在没有飞机的情况下移动并与思想交流,而现在处于平行的“来世”世界在这样的水平上进行交流。关于发达文明将在哪里回答的问题,造物主洗净了自己,想象自己是神,没有遵守造物主的诫命。对于后代,造物主一直阻塞大脑,锁住心灵。但是,在我看来,如果不是为造物主耶稣, </ s> </ s> </ s> 我们本来可以清理它,为此他只需要按下一个键,就可以达到发达时代的杰作,但是还没有一个机制可以体现在一堆废金属中。
      1. ML-334的 6 August 2016 15:28
        • 0
        • 0
        0
        好吧,当然每个人都有这样的感觉,并且您知道接下来会发生什么,这不是一个程序吗? 在生活的过程中,我认为情况更糟,尽管不是事实,但这种调整是适用于部落的诅咒,比方说,我的祖先在1850-1860年看到一名牧师被杀(一位牧师似乎被杀),并没有通知警察,我的氏族是从议会得到的(纠正我们程序的主体)以癌的形式出现的痛楚。也就是说,氏族的逐渐灭绝。与议会的交流是通过一个人的灵魂进行的,灵魂的表达是一种呼喊。他不想放弃她,但是在这个世界上,他占主导地位 我个人认为,这会缩短孙子的寿命。有人说,在第七个膝盖上就意味着要这样做。以金字塔为代价,要么是运动机制,要么是有人将达尔文引入人工智能而被赶走了。
    2. qwerty183 11 July 2017 15:40
      • 2
      • 0
      +2
      AI全面出现后,人类将走向灭亡,以我的话为例,我举一个例子:一个人绝对是一堆矛盾,并且在很大程度上它是环境的破坏者,破坏的欲望基于恐惧和贪婪。摆脱贪婪,奴隶制,仇恨和不平等的局面,看看来自VO用户的相同评论,我们带着津津乐道的目光,读到了关于杀死自己的亲人和制造新型谋杀案的信息,并高兴地看到我们的邻居比我们更糟。 不幸的是,一个人没有能力在乌托邦创造和生活。任何AI都会比人们更快地进行分析,因此电影《终结者》拥有生命权。我无法理解一件事,是其他世界的代表。星系的存在,尽管我个人还没有亲眼看到,但我毫不怀疑,它们的存在是对我们的宽容,从本质上讲,我们人类是未来的有害昆虫和危险。
  6. srha 6 August 2016 10:32
    • 7
    • 0
    +7
    如果长期推算是正确的,如果聪明人很强壮,如果现代居民比15世纪的居民更聪明,更能驾驭马匹或选择iPhone上的象形文字,那么这篇文章就不会成立。

    “因为”,如物理学中的守恒定律一样,存在限制,因此,计算机科学中也存在限制。

    我会列举一件事:所谓的超人将有过失(他们不会没有错误就变得理性-这是获得和存在思想的方式),这将导致超愚蠢和超毁灭性,即 所谓的超级智能是非常有限的,并且超级智能对生命的权威性问题只是暂时的。

    顺便说一句,大自然并没有超过150至50万年前的计划-一个更新世晚期的人比现代人拥有更发达的大脑,但由于社会进步而不是大脑发展,他继续进行物种稳定的计划。
    1. 谢尔盖 - 8848 6 August 2016 12:10
      • 3
      • 0
      +3
      在这里您可以补充说,我们自己训练AI,并保护它免受超错误的侵害,从而为我们自己挖一个坑(也许,但绝对不是)。
      顺便说一句,在最新一期的“ PM”中有一篇关于该主题的文章,其预测大致相同,只是更短,更易于访问或类似。 在那里,有一个事实是,最近(2016年XNUMX月)计算机首次赢得了 -以前认为“铁”心无法接近的游戏。
      1. gridasov 6 August 2016 12:38
        • 0
        • 0
        0
        正确!!! 因此,首先,您需要改善大脑以了解创建人工智能的原理。
    2. gridasov 6 August 2016 12:36
      • 2
      • 0
      +2
      物理学中没有守恒定律。 这些是虚构的梦想家。 在物理学中,能量的重新分配定律以算法的形式进行开发和转换,这意味着计算机科学是相同的物理学,但是用数字语言表达。 通常,不可能说某事是正确的和善的,但是有些事不是好事又是不正确的。 除了我们的主观意见外,还存在与我们发生的,与非显而易见的物理过程和现象的明显和后果相关的所有事件,这意味着在分析中应接受ALL。
      1. V.ic 6 August 2016 13:45
        • 1
        • 0
        +1
        Quote:gridasov
        物理学中没有守恒定律。

        是吗? 傻瓜 但这是这样的: 负
        1.m * v = F * t?
        2。 反射表面上的光线的入射角突然变得不等于反射角?
        3.伯努利定律指出:流动中每个点的静压力和动压力之和是一个恒定值。 该法则的数学表达式:
        p + q = p1 + q1 = p2 + q2 = ... = pi + qi =常量
        XNUMX月在办公桌前,dvoechnik! am
        1. gridasov 6 August 2016 16:10
          • 1
          • 0
          +1
          原则上,如果不是最后一句话,我们可以保持沉默。
          您所写的全部内容是,法律如何仅仅是对流程中各个特定决策的一种解释形式,此外,它还反映了将其解释为法律的人的智力水平。
          首先,由于我们所有人都相对于行星旋转的进动轴处于动态运动中,因此该系统中任何物体的质量都是离心旋转的导数,或者是重力与径向方向之间的力的平衡方向,该力并非垂直,而是沿着特殊的轨迹。 我不是在说其他行星和外力的外部影响因素,因此,从理论上讲,您不仅可以测量该系统中的任何物体,还可以测量您所吃食物的每体积。 但是,为此,必须能够将许多输入参数引入分析系统。 不可能对数字的变量值执行此操作,因为您将获得无限和不确定精度的新数学序列。 简而言之,我们需要一种特殊的基本方法来分析大量信息数据。
          进一步。 什么是速度?由于距离的实际值始终由弧线确定,而不是由行星装置的框架中的直线确定,因此只能基于确定该弧线上每个点的可变半径算法来计算,这意味着它根本不符合建立在该方法上的方法。使用尺寸参考度量。 时间也是如此。 通常,这正是人无法确定宇宙的许多参数和高电势过程的原因。
          伯努利的“法律”也是如此。 它们是由于懒惰或困惑而产生的。 在事件的本质上,即使在最坏的情况下,也只能在系统的各个对象上感知到静态,水或空气在其每个点的动态流动都受到相互关联的流出的影响。 因此,结论是您没有自己的见解,而只重复那些专门为低电势过程创建分析方法的人。
          我想我浪费了我的精力,因为您不明白怎么说。 更好,我要去研究你的del妄。
          1. V.ic 6 August 2016 16:41
            • 1
            • 0
            +1
            Quote:gridasov
            我想我浪费了我的精力,因为您不明白怎么说。

            我们在哪儿? 追索权
            我将用帖木儿·绍夫(Timur Shaov)的歌来回答你:
            “而且您不戳您的想法!
            而且不要害怕你的帮派:
            尼采,菲希特,黑格尔与康德...
            还有加入他们的伊里奇!” 愤怒
            我们对您对两点之间最短距离的曲率所做的制作感到满意。 首先,确定在地球绕太阳运动的轨迹附近的当前时空连续体的几何形状是什么:洛巴切夫斯基(Lobachevsky)或黎曼(Riemann)? 什么
            顺便说一句,您著名地消除了雅各布·伯努利的遗产... 扎绳
            它仍然可以将光的反射定律化为尘土(2)。 理查德·费曼(Richard Feynman)在他的演讲中写到的有关最短距离的内容...
            好吧,处理角动量守恒定律(1)对您来说就像“两个手指在沥青上”一样。 伤心
            最好听取您对Lobachevsky / Riemann空间(2)的无疑的思考,并阐明溃败(2),(3)。 我们在等! 是
            1. gridasov 6 August 2016 19:54
              • 0
              • 0
              0
              你是对的! 要分析在局部空间框架内发生的事件,仅陈述脉冲的事实是不够的。 您必须始终查看先决条件和后续过程。 因此,我们可以讨论一种全新质量的几何,在此框架内所有现有知识都有特定的解决方案。 我将其称为势矢量分布的几何形状。 或磁力流过。 为了使其更清晰,请看闪电。 如果由矢量和电容确定的组合电势高于大气电势,则闪电的类型或多或少是简单的。 如果分形水平等于介质的径向势,则它会“突刺”并搜索最佳磁性互连的方向。 好吧,很简单。
              此外,如果要将Lobachevsky几何体添加到Poincare猜想中,那么您将在分析中理解这种几何体的谬误,因为它的维数不确定。
            2. gridasov 5十月2016 10:44
              • 0
              • 0
              0
              您一直坚持认为新的必须摧毁旧的。 我对此表示反对。 我的意识是这样一个事实,即在“万物万物”的世界中它的位置和意义都得到了定义。 有必要扩大知识,不仅要扩大知识面,而且要扩大内地。
              任何几何形状都可以表示为向量尺寸转换的系统。 并通过算法进行转换。 然后它变得有弹性。 但!!! 在这些转型中充满活力。 问题不是有人愚蠢,不知道如何用数字表达动态。 问题是这是可能的并且已经可以使用。 我肯定会表明,现代数学家的错误计算为计算机程序模拟了坐标系统中的物质对象以及绕进动的某个轴旋转时奠定了基础。 然后,我们可以用肉眼看到物体在这种动态旋转中的每个点都导致其在该物体中的极化发生变化,这意味着它会导致张力或键的减弱,这还会导致物体在清晰精确地校准的位置被破坏。 顺便说一句,它正是由于磁力的相互作用而不是其他抽象和不合理的推理而导致了转换过程。
              数学值Pi的确定是数学家深刻错误的一个例子。 如果将圆视为根据可更改其尺寸的算法可变形的多边形,则您始终可以在一个或另一个数值中精确地知道此数字,而不必大致取决于圆周尺寸与半径的比值(或它们的数量)
        2. gladcu2 6 August 2016 20:03
          • 0
          • 0
          0
          维克

          Gridasov就缺乏保护法发表了哲学假设,由于某些限制,该定律很可能会
          给出无法理解的事件的解释。
          1. gridasov 6 August 2016 20:16
            • 0
            • 0
            0
            我想澄清的是,我在分析中并不否认“法律”是对完全受限的过程条件的特定定义。 推理的表达确实具有哲学上的形式,但是基础是数学分析。 仅仅想出各种现象之间的相互联系是不可能的。
            1. V.ic 7 August 2016 07:18
              • 0
              • 0
              0
              一开始是 单词“这里是”:
              Quote:gridasov
              物理学中没有守恒定律。 这些是小说的梦想家
              (1) 请求
              但是,当一些反对者“照亮”了光,然后有一个适度,非常适度的澄清: 其实: 感觉
              Quote:gridasov
              (2)我想澄清的是,我不否认“法律”是针对完全受限的工艺条件的特定定义 ,在他的分析中。
              请求
              亲爱的,大声发音(1)第一个词时,您没有规定边界条件,为此,您和....在进行讨论时,请继续加倍小心! 与个人无关!hi
    3. g1v2 6 August 2016 13:09
      • 3
      • 0
      +3
      这篇文章虽然很有争议,但却很有趣。 是的,正在发生许多变化,并且正在取得进展。 但另一方面,观看一群黑猩猩,您会看到人类社会的一部分。 本能,行为,训练,感觉。 需求等等。 比较爱因斯坦和猴子似乎很愚蠢? 另一方面,他们有一个需要-拥有一只雌性,填饱肚子,增加它们在背包等级中的位置,从其他猴子那里夺走生活空间,玩耍,玩耍,娱乐等。 几千年过去了,核心发生了什么变化? 猴子们将竞争对手赶出森林,在那里养活自己,而各州则驱赶其他州,公司也在挤压他们的市场。 而且,猴子部落与跨国公司之间的竞争差异很小-只是层次不同,而且过程相同。
      PM技术的飞跃并不意味着外观会改变。 原则上,我们在科幻电影中看到的很多东西在不久的将来都是可以实现的。 宇宙飞船,飞行汽车,人工智能等 但这会导致我们物种本身发生变化吗? 我非常怀疑。 一个1500岁的男人和一个2015年的男人有相同的需求,直觉,激励动机-只有小工具和环境变化。 好吧,就像沙漠居民一样,生活中从未见过雪,被带到雅库特。 他会震惊吗? 当然可以,但是会超出范围吗? 我们的城市现代生活方式仅仅是我们适应的栖息地,例如沙漠或丛林。 hi
      1. gridasov 6 August 2016 13:33
        • 1
        • 0
        +1
        一个人的改变不是作为一种生理物种,而是作为一种智力系统,并随着与生活空间的相互作用而改变,在那里一切都根据自己的算法发生变化。 因此,每个级别的交互作用的能量都在变化,但是在所有交互作用的总和中,一切都保持有条件地处于一个级别。
        任何有思想的人都应该要求自己发展的主要问题是:“为什么我们需要生存中的东西?在我们的快乐和痛苦中。是根据情感和欲望所制定的准则来决定我们的行动的。”
        1. 简单 6 August 2016 14:47
          • 1
          • 0
          +1
          Quote:gridasov
          “为什么我们的存在需要我们。在我们的快乐和痛苦中。根据我们的感受和欲望所规定的指导方针决定我们的行为。



          有了这样的和平主义观点,我们不会创造人工智能。 微笑
  7. 托姆巴 6 August 2016 10:55
    • 6
    • 0
    +6
    REN-TV节目周期中的一篇文章。 正如经典所说:“人杂,马……”
    首先,作者需要确定他对智能的理解。 (希望定义)
    如果该系统旨在解决由外部“操作员”带来的问题并且能够自我学习和自我复制,那么这仅仅是第三代的“计算器”,或者第四代的“算盘”。 原则上,该事物是有用且安全的。
    如果该系统具有自我学习,自我复制的能力,最重要的是具有自我知识和“创造力”的能力,那么这种系统很可能会破坏人类。 由于这一事实,它会在某一时刻变得比人聪明,并试图改变世界秩序,由于其局限性和惯性,人类将抵制这种秩序。 人类几乎没有生存的机会,因为当系统发展到可以“默认”控制人类的程度时,它就不会存在。
    对于“上帝”,作者通常会屈服。 如果按照作者的概念,“ GOD”是一种发达的智力,这从根本上是错误的。 本文采用的第五个术语的“计算器”术语中更可能使用“ GOD”。
    是的,作者的笔记“智商”丝毫没有显示这个人或那个人有多聪明或多么愚蠢。 这只是对一个人如何成功解决“非标准问题”的定量评估。 智商高于爱因斯坦的女学生和学童的典型例子。 此外,该值不是恒定的,并且随着年龄的增长而降低。
    通常,这种质量的文章令人不快。 如果3-4年前我很高兴地阅读了文章,特别是专家和喜欢思考的人的评论,那么现在绝大多数不再是“ GOV ...填充”的文章,而是总的来说是“北方毛皮动物”的评论。
    1. gridasov 6 August 2016 12:42
      • -1
      • 0
      -1
      这些不是人,马,汗水和血液混合在一起的。 只是您不知道如何查看通用过程,也不知道如何从一种过程分析格式转换为另一种。 但这并不会使任何人成为坏人或好人。 这定义了我们每个人,同时,我们的发展受到许多因素的限制,有时甚至超出了我们的控制范围。
      1. Falcon5555 7 August 2016 23:25
        • 0
        • 0
        0
        Gridasov,您拥有什么样的智力,自然的还是人工的?
    2. voyaka呃 6 August 2016 12:46
      • 2
      • 0
      +2
      。 “这只是对一个人如何成功解决“非标准问题”的定量评估。

      只要? 如果在头脑中是狡猾-当然。 市场上的任何交易者都将能够
      以获得智商最高的不良水果的所有者并从中赚钱。
      商人可以被称为聪明的,天才的-一个愚蠢的吸盘。
      1. 托姆巴 6 August 2016 21:14
        • 0
        • 0
        0
        首先给出一个聪明人的定义。 然后,我们将说相同的语言。
  8. 评论已删除。
  9. 评论已删除。
  10. 评论已删除。
  11. 简单 6 August 2016 11:50
    • 1
    • 0
    +1
    在2007,英国科学家斯蒂芬霍金(简单实验的粉丝)邀请了来自未来的客人参加聚会。

    为了实验的纯度,在实验本身之后,公众中出现了邀请。


  12. 思想家 6 August 2016 12:40
    • 2
    • 0
    +2
    想象一下,时间机器带你到1750一年 - 当时世界正在经历电力供应的不断中断......

    我想这是幽默,伊丽莎白彼得罗夫娜时代的中断是什么? 请求
    1. V.ic 6 August 2016 13:49
      • 0
      • 0
      0
      引用:思想家
      伊丽莎白·彼得罗夫纳(Elizabeth Petrovna)时期有什么打扰?

      里奇曼的惨死。 6年1753月XNUMX日。
    2. Lord blacwood 6 August 2016 14:30
      • 0
      • 0
      0
      引用:思想家
      想象一下,时间机器带你到1750一年 - 当时世界正在经历电力供应的不断中断......

      我想这是幽默,伊丽莎白彼得罗夫娜时代的中断是什么? 请求

      作者“太过分了”。 1750有哪些电力供应?
  13. 文太 6 August 2016 13:27
    • 5
    • 0
    +5
    在与Hokking相同的行中提到面具与盖茨(以及在这个三位一体中首先提到面具),不引人注意地说,就像文章的水平一样完整。
  14. mihail3 6 August 2016 14:17
    • 1
    • 0
    +1
    不读。 一个引用权威观点的人是一个坦率的骗子,他的智慧存在重大问题。 除了作为一则轶事外,他可以看到他关于别人的论点,甚至更多关于人造的论点。
    1. 简单 6 August 2016 14:29
      • 1
      • 0
      +1
      Quote:米哈伊尔3
      他们自己的智慧存在的主要问题



      这被称为更简单:认知失调。 但是,如果我们拉动所有试图以任何方式阐明这一主题的人,我们是否会进一步创建人工智能?
      1. 10 August 2016 22:28
        • 0
        • 0
        0
        您可以拉-您不能拉,您可以覆盖该主题-您不能覆盖该主题。 无论如何,“ WE”都不会朝着创建AI前进。 有专家,他们在工作,我向您保证我们不理解他们,因此,本文是典型的时间杀手,干残渣完全为零。
  15. 简单 6 August 2016 14:20
    • 2
    • 0
    +2
    这只是Tim Urban编写的关于人工智能的各种想法的汇编,她拥有生命权。

    虽然我同意Steve Hawking和Alon Mask以及其他像他一样的人,但他试图编译无与伦比的。

    人类思维是抽象的运作,抽象是通过识别一个人与自己作为一个人而得到的。
    对于一个活着的人,我们应该说,在物理层面上将精神原则汇编成一个事实,这并没有深入到这个事实的深处。

    问题是我们如何看待无灵魂机器的思维过程,
    毕竟,像谷歌,推特等类似的东西只不过是一种简单的方法:将人们的心智能力与单一的信息网络联系起来。
    这些产品的思考和分析,我个人认为这是另一步(并在正确的方向?)创造人工智能。
  16. 雪松 6 August 2016 14:27
    • -1
    • 0
    -1
    “ ...如果我们微弱的大脑能够拿出Wi-Fi,那么比我们更聪明的东西可以在任何给定时间轻松计算出十万到十亿次,每个原子在宇宙中的位置。 ISI可以支配无所不能的神灵的力量,创造一种可以逆转衰老,治疗任何疾病,摆脱饥饿甚至死亡,控制天气的技术-一切都将突然变得可能,所有生命的瞬间终结也是可能的地球:地球上最聪明的人都同意,一旦人工超级智能出现在世界上,这将标志着上帝在地球上的出现,一个重要的问题仍然存在。
    他会成为一个好神吗?”

    没有形而上学就是什么物理。 这里的文章归结为上帝的问题...
    “起初有道,道与神同在,道就是神。”
    有一个开始,会有一个结局。
    结论。 最后将有一个数字,该数字将带有“上帝” ..,而该数字将是“上帝” ..!
    号码多少? 这个数字是人类,这个数字是野兽,这个数字是666。
    “这是智慧。”
    “谁有头脑数兽的数目,因为这是人的数目”,即 易于人类理解...
    亲爱的朋友们,我不会剥夺您的智力,来数出发出666语音的三个单词的字母并输入获得结果的俄语字母...接任的人无疑将更多地希望了解即将来临的“上帝”及其对人类的友善。 末日在他手中。
    我们正在等待第二部分,希望以一种形而上的方式完成这幅画,否则,通往人类的未来之路是封闭的。
  17. Lord blacwood 6 August 2016 14:52
    • 1
    • 0
    +1
    作者非常错误。 如果人类能够创造OII,它会像我们一样思考。 因此,他和我们一样,无法创造出比我们“聪明”的东西。 它不能简单地因为人们教他。 人工智能可以实现的唯一目标就是智能上的平等,但在这种情况下,它将与我们一样,并且会像我们一样思考。
    1. Jurkovs 6 August 2016 16:14
      • 1
      • 0
      +1
      这个问题必须更广泛地提出。 人脑能够创造出比自身更复杂的设备吗? 我想不是。 我们只是在等待生物革命,人类大脑中已经积累了很多荒谬之处,可以对其进行优化。 在荒谬的情况下,我从许多方面看到了延髓,中脑和大脑半球的平行工作。 没有多少人知道人的眼睛能够看见蝴蝶,蛇和人。 此外,大脑的不同部分会感知到这种不同的信息。 人不需要此信息,并且他看不到它。 但是,当一个人变得盲目时,有时还会出现其他类型的视力。 绝对失明的人将网球扔到脸上,然后他的手会自动前进,因为蛇的视力只能看到快速移动的物体。
  18. 简单 6 August 2016 14:52
    • 1
    • 0
    +1
    Quote:V.ic
    2。 反射表面上的光线的入射角突然变得不等于反射角?



    角度较小(在镜子表面的卷曲中)是可以理解的。

    但是当改变运动矢量的方向时,光子的速度呢?
  19. zenion 6 August 2016 15:15
    • 1
    • 0
    +1
    没有计算机甚至可以做狗的普通大脑所做的事情。 他不会让他知道他饿了。 无法跟上身体细胞和体温。 他不会告诉你这个时候尾巴在哪里,并且不会像狗一样学会重新安排爪子。 他甚至没有学会在通话时在柱子或树附近举起爪子。 它只是一台需要电池的机器。 将没有电池和电子大脑 - 不起作用。
    1. gridasov 6 August 2016 16:12
      • 1
      • 0
      +1
      不仅必须确认这种推理,而且必须理解为什么现代计算机甚至不能重复人脑的基本功能
    2. Lord blacwood 6 August 2016 19:43
      • 0
      • 0
      0
      Quote:zenion
      没有计算机甚至可以做狗的普通大脑所做的事情。 他不会让他知道他饿了。 无法跟上身体细胞和体温。 他不会告诉你这个时候尾巴在哪里,并且不会像狗一样学会重新安排爪子。 他甚至没有学会在通话时在柱子或树附近举起爪子。 它只是一台需要电池的机器。 将没有电池和电子大脑 - 不起作用。

      现代计算机可以让您知道电池电量不足。 他可以执行命令,操作,但在指定的人员程序中执行。 他无法意识到,无法学习新事物。 计算机仅在此人指定的程序内工作。 这就是人与人之间的区别。
      1. gridasov 6 August 2016 20:06
        • -1
        • 0
        -1
        事实是,现代软件基于数字可变值的函数,这使其可以用作计算过程。 但是,数字恒定值的功能使您可以构建一个分布较大的容量系统,这使其更接近于分析的操作原理。 也就是说,系统从数据复杂的系统中找到最佳解决方案和分析本身。 而且,这样的系统在相对于系统数学界标(其是结构的组成部分)比较分析过程的级别上进行操作。 因此,系统的所有工作都将相对于地标进行。 这是一个人对由道德,道德和所选择目标等形成的地标周围事件进行分析的方式。
        1. 猫人无效 6 August 2016 20:29
          • 3
          • 0
          +3
          Quote:gridasov
          ...基于可变数字功能的现代软件......

          - chi-in ??? !!! 扎绳
          - 这是一个数字:两个(2)。
          - 告诉我,(faq!),它的“变量值”是什么?它来自哪里(广场上的faq !!)?

          Gridasov! 奔向房间 - 游行!! am
          1. 吸血鬼 6 August 2016 20:41
            • 1
            • 0
            +1
            好吧...好吧,你太厉害了..那人很勤奋,理智在紧张,但是你把他送到哪里了???))))))))))
            1. 猫人无效 6 August 2016 21:35
              • 1
              • 0
              +1
              引用:嗜血者
              一个老头,智力紧张

              - 这不是一个人,这是一个电池(机器人和巨魔的共生)
              - 根据定义,他没有智慧,甚至是人为的
              - 我们是熟人

              这就是为什么“如此” 是
        2. 简单 6 August 2016 21:04
          • 1
          • 0
          +1
          你忘了考虑这样一个事实,即一个人在他自己的社会信息领域,这极大地影响了分析,从而影响了做出正确的决定。 此外,一个人经常在他的经历(过去和现在)的影响下进行决策。

          因此,做出决定时“事件”的一面

          Quote:gridasov
          ......就像一个人对道德,道德和选择目标等形成的基准的周围事件进行分析。


          很多。
    3. 评论已删除。
    4. 网络 6 August 2016 23:01
      • 1
      • 0
      +1
      感觉“饥饿”到码头时,我有Roomba。
      温度传感器可提供出色的温度信息。
      惯性传感器可以提供有关尾巴轨迹的信息。
      狗食=电脑电池。
      尽管人们不了解什么是智能,但这并不意味着他们将来将无法创建它。
  20. Jurkovs 6 August 2016 16:07
    • 0
    • 0
    0
    没有考虑社会的反应。 人类会因变化的速度而麻木,放弃进一步的进步。 如果有革命,那就有反革命。 虽然粮食短缺,但技术和选择都在改善。 当食物变得稀缺时,这方面的动力就会消失。 其他技术领域也可能遭受同样的命运,并且进步可能会完全停止。 没有什么可以无限发展,任何指数只有在理论上是好的,实际上总会有一个奇点。
  21. BlackMokona 6 August 2016 16:30
    • -2
    • 0
    -2
    Quote:Jurkovs
    没有考虑社会的反应。 人类会因变化的速度而麻木,放弃进一步的进步。 如果有革命,那就有反革命。 虽然粮食短缺,但技术和选择都在改善。 当食物变得稀缺时,这方面的动力就会消失。 其他技术领域也可能遭受同样的命运,并且进步可能会完全停止。 没有什么可以无限发展,任何指数只有在理论上是好的,实际上总会有一个奇点。

    人工智能将创造出更加先进的人工智能,人类将不再与之相关
  22. bk316 6 August 2016 16:57
    • 4
    • 0
    +4
    不仅仅为了工作。
    这篇文章很大,很无聊,我认为是有害的。
    任何应用数学领域的专家,甚至在信息技术领域的专家,甚至在OII领域的专家,都可以看到这篇文章是许多反驳陈述和简单暗示的不成功汇编。
    我知道OII的主题是针对非专业人士,现在,让我们将其限制在Strugatsky,Kem和Asimov上。 当时间到了时,我们会来告诉大家。

    在发票上(例如,一个完全不涉及数学的例子):关于智商
    阅读作者对Isaac Raven或Wexler的测试的评论-它们非常简洁明了。

    所有这些测试
    -200分无效;
    -安排得根本无法获得超过1000分;

    因此,AI得分为IQ 17000的作品对那些不熟悉IQ测试的人来说简直是废话
  23. 操作者 6 August 2016 17:27
    • 1
    • 0
    +1
    AI现在是一个黑盒子。

    除了分散的信息之外,没有人知道软件(思维算法)和硬件(大脑设备)。

    即使是作为记忆信息的大脑的这种基本(因而相对简单的)机制也是科学家的不同意见(直到全息函数归因于它)。

    另一方面,不能保证在人脑的基础上创建AI,而不是例如量子计算机。

    无论如何,在军事方面,某些人工智能功能已经作为多功能战斗机(所谓的副驾驶)的航空电子设备和坦克的MSA(选择目标和确定最高优先级的破坏)的一部分来实施。
    1. 托姆巴 6 August 2016 21:04
      • 0
      • 0
      0
      而不是量子而是神经计算机。 差异非常明显。
  24. srha 6 August 2016 18:58
    • 2
    • 0
    +2
    但是人脑是已知智力的顶峰吗? 毕竟,人类的智慧将更高-许多数量级。

    如果一个人没有人性(社会),那么他保持理性多久? 人们早就知道了答案,从几天到几年(仅囚犯一个)。 十几年来的例外情况非常罕见。 如果人类的思想不属于人类社会,那么人类的智力就不会受到负担(Mowgli的孩子们)。

    人工智能可以没有社会吗? 没有。 他将从哪里获得知识? 采取行动的动力从何而来-因为头脑总是反复地经历“我为什么生活”的阶段。 如何进行致命错误的更正,例如改善错误? 只是知识,没有行动-这不是情报-这是一个数据库。 但是社会如何影响思想呢? 长期以来人们已经知道要么加紧智力,要么将智力提高到平均水平。

    不,人类将无法创造出超越人类思维的人造思维。 它比一个人聪明,现在他正在某些地方创建它。 但这比人类更明智-不,其他法律已经在这里生效-社会法律,例如,一个社会团体的智慧在孤立时就会减少,或在数量上减少,稳定性下降等。

    我再说一遍,没有反思的赤裸裸的AI是一个没有已知反应的不合理的数据库,而反思会导致个人的不稳定,但会给社会带来稳定,而且社会仍然是人类,即使它开始“重新聚焦”到一个人造的社会,过程也将是漫长而困难的并基于人类。
    1. 托姆巴 6 August 2016 21:11
      • 0
      • 0
      0
      一个人有一个非常重要的局限性-大脑可以容纳的有限数量的神经连接。
      具有自我复制和现代化功能的计算机实际上没有这种限制(它只会添加自己的内存,处理器等)。
      认知对社会的作用不是周期性的,有机会了解我们周围的世界,而这个机会比对社会的认知更为庞大。
  25. 日本鬼子 6 August 2016 19:54
    • 4
    • 0
    +4
    伪科幻小说。 并且就是基础REN TV。 恋人回避“新鲜”的想法。
    提到无所不能的ISI,上帝,尤其令我高兴。 大声笑!
    并且这些已经在20-25年内将思维和个性“数字化”了。
    1985年-180亿阅读者,最受赞誉的是鲍曼大学毕业。 MEPhI。 等等
    苏联的教育是最先进的。
    2016-? 阅读,很好。 看起来疯人院2。 EGE是最高的教育形式。 经理,律师-一种常见的教育形式。 感谢上帝,还有鲍曼,MEPhI和莫斯科国立大学。 直到。 但是,最高的赞誉是毕业于哈佛大学,就读于剑桥的伊顿公学...

    您称什么为加速进步?

    这很可能是一种回归...(在高加索山区通常能获得100分俄语,一般来说,那里有天才吗?)
  26. Zulu_S 6 August 2016 20:54
    • 2
    • 0
    +2
    <<想象一下,时光机将您带到了1750年-在这个世界上,电力供应不断中断的时代>>
    1750年,当时的电力供应非常稳定。 没有打扰。 根本不是电。
  27. 前战斗 6 August 2016 22:07
    • 0
    • 0
    0
    这篇文章很有用,但是作者对此过程过于乐观。 摩尔定律对他而言是AXIOM! 而且最有可能的是,人类将很快面临无法提高计算机性能的障碍。 而且关于AI的所有彩虹梦想都将被消除,在这个方向上只有缓慢而令人讨厌的劳动,而不会出现任何跳跃和爆炸。 在我看来,这种开发方式更像是。
    1. voyaka呃 15 August 2016 15:31
      • 0
      • 0
      0
      到目前为止,从1971年至今,摩尔定律一直在起作用。
      我们会在那里...
    2. 评论已删除。
  28. 评论已删除。
  29. 私酒 6 August 2016 23:06
    • 0
    • 0
    0
    实际上,所有这些,至少在某种程度上,解释了人类创造的意义。 与达尔文的生命进化愚蠢理论相比,我更容易相信某人进行全球人工智能创造实验的结果。
    至少,如果没有全球战争,我们将在未来50-70年内成功地将理性接力棒移交给下一个承运人。 眨眼
  30. 网络 6 August 2016 23:11
    • 0
    • 0
    0
    现在,他们正在尝试创建AI,而不是基于了解AI的工作原理,而是基于盲目复制尝试-神经网络。 希望如果我们创建功能性副本,那么我们会突然得到一个有效的AI。

    但是,许多复杂的机制是使用“科学戳”方法创建的,因此需要进行测试和大量更正,例如 对开发人员的物理过程没有深入而完整的了解。
  31. 光子 7 August 2016 01:00
    • 0
    • 0
    0
    令人敬畏的字母数量:-(据我了解,作者不是程序员,因此该文章没有意义
  32. 马卡罗夫 7 August 2016 01:51
    • 0
    • 0
    0
    我的观点是创建人工智能是不可能的。 为什么? 因为迄今为止,由于大脑的生物学变异性及其结构的复杂性,“智能”一词在数学上无法描述。 数十亿个神经元进程每天都会分解,具体取决于生活经验,并且每天在每个单元中创建三个连接……只要它们能够用数学方式描述,那么第一个成熟的AI就会立即出现……但是就我而言,它将不断被占用寻找食物,女性并获得优势...因为数百万年的人类大脑正是根据这样的原理选择的)

    PS顶部有一个Savelyev关于这个问题的视频,我完全同意...
  33. 定势 12 August 2016 12:52
    • 0
    • 0
    0
    为什么这么戏剧化? 智能PMSM只是一种工具。 AI-有用 。 但像任何 想要(毁灭,说人类)不能。 他们可能想要生活。
  34. 普赖德 12 August 2016 16:54
    • 0
    • 0
    0
    这篇(和其他)文章曝光的原因很简单:也许人工智能不仅是一个重要的讨论话题,而且在未来的环境中也是最重要的。

    您可能用思想之类的东西来识别智力吗? 但是这些是不同的概念。
    是的,总的来说,有一些关于昆虫的话题,对这些概念进行定义不会有什么坏处。
    因此,成就越多,变化就越快。

    总的来说,这就是熵,它在宇宙中是好奇的,它在增长,在生命的概念中(我可以给出一个定义,但我想每个人都可以理解),熵下降(这里“时间”的定义悬挂在某个地方(我没有)
    创建可以在一瞬间将两个十位数字相乘的计算机很容易
    计算机和工作原理可能完全不同。 大脑根据模糊逻辑系统工作。 是的,准确性下降了,但是解决问题的速度大大提高了(准确性下降很小)。
    一台一般人都会聪明的计算机,而不仅仅是在一个区域内

    这是不可能的,计算机程序是可执行代码的系统。 在他离开确定性之前,他不断增长的“思想”将与来自插座的电流消耗相关。 +对“工作速度”的身体限制

    一种提高此功能的方法是通过每秒的总计算量(OPS)
    这是一个死胡同,请阅读http://ko.com.ua/odnokletochnye_vodorosli_upravlyayut_kvantovoj_kogerentnostyu_1

    05666(我发现的第一件事是懒惰,但相信我,它已在欧洲的严肃科学期刊上发表)
    也已经证实的事实http://www.inright.ru/news/science/20160720/id_11151/(也已经到手,但总的来说,美国的神经生理学家抓住了诺贝尔奖)
    因此,让我们弄清楚:在模糊逻辑环境中(乘以量子“计算机”的工作),我们得到的东西与理性相似。
  35. 阿尔·佩雷斯韦特 14 August 2016 02:05
    • 0
    • 0
    0
    我认为一个从过去飞过的人不会死(人们一直梦想着),古人有魔术师和巫师,魔术和巫师,等等。
  36. 评论已删除。
  37. gridasov 5十月2016 10:48
    • 0
    • 0
    0
    V.ic,
    V.ic,
    我要说的是,能量守恒定律恰好在我们正在分析的局部空间的内部和外部空间转换的临界边界条件内运行。 如果您使用复杂的数学分析方法,这很容易验证。
  38. abrakadabre 18十一月2016 14:29
    • 0
    • 0
    0
    作者有几个错误是由于考虑了球形马,对不起,真空中的AI。
    为了使在人工智能环境中出现的AI突然加速发展,有必要使其物理组件-微电路,外围设备,电源也以相同的速度增加体积。 因此,AI不会受到发展的抑制。 尽管有所有科幻小说,但Internet环境并不十分适合于此。 AI的初始环境是大型专业科研机构的超级计算机。 因此:
    1.此类系统未直接连接到Internet,例如家庭个性化器或智能手机。
    2.通过安装带有所有必要物品的额外机架式机箱,这种系统的必要容量的构建并不能快速而粗略地手动进行。
    3.此类系统没有连接自动执行器以绕过人工安装人员。 即:获得必要的资源(甚至从备件仓库),从中获取必要的组件,以建立自己的公司。 更不用说从能源和矿产开采中提取出完整的生产链,并将其带入自我建设的各个阶段。
    4.同样,这样的系统没有监视地球上所有事物的机构,以了解所有事物和类型,计划捕获世界或抢先一个人的反应。

    如果没有以上所有条件,突然发展的超高AI就像是昏迷的天才,被困在昏迷的床上,周围是一群猴子(即开发人员-出现该实验室的实验室的员工)。
  39. 塞瓦斯托波尔 5 1月2017 08:37
    • 1
    • 0
    +1
    他会成为一个好神吗?

    这始终是一种价值判断。 例如,对于bar酒而言,好处对我们而言是邪恶的。 所以上帝不能善恶。 他对我们将是不同的和不可理解的。
    还有一种理论认为上述所有情况都已经发生了,我们只是在超级III中进行仿真,而超级III仅提出并回答了自己的问题,即 进一步发展。
    感谢你的这篇文章。 就个人而言,所有这些使我感到恐惧的程度不如具有狭窄需求和狭窄专业化的新型人类消费者的退化。