科学家们对人工智能的威胁感到害怕
如果他愿意,将来培养人工智能(AI)可能会奴役或杀死人。 科学家Amnon Eden告诉我们,他认为自由思维和高度智力意识的发展所带来的风险非常大,“如果你不在现阶段开发中控制人工智能问题,那么明天可能根本就没有。” 根据英文版的Express,人类在Amnon Eden看来,今天处于着作“终结者”电影史诗剧情的“不归路”。
值得注意的是,Amnon Eden博士是项目经理,其主要目标是分析人工智能的潜在破坏性影响。 科学家认为,如果没有正确理解创造人工智能的后果,它的发展就会面临灾难的危险。 目前,我们的社会对于科学界正在进行的关于人工智能潜在影响分析的争议知之甚少。 “在即将到来的2016中,对可能存在风险的分析必须在企业和政府,政治家以及负责制定决策的人的思维中得到更广泛的分析,”伊登说。
科学家肯定是科幻小说,它描述了人类的毁灭 机器人,可能很快就会成为我们的共同问题,因为创建 AI 的过程已经失控。 例如,Elon Musk 在企业家 Sam Altman 的支持下,决定创建一个新的 1 亿美元的非营利组织,致力于开发应该超越人类思维的开源 AI。 与此同时,美国亿万富翁埃隆马斯克本人将人工智能列为“对我们生存的最大威胁”。 苹果公司的共同创始人史蒂夫沃兹尼亚克去年 XNUMX 月表示,“未来看起来令人生畏,对人们来说非常危险……最终有一天,计算机会比我们思考得更快,它们会摆脱行动迟缓的人,从而公司可以更有效地运作。”
应该指出的是,许多科学家都看到了AI的威胁。 数十名着名的科学家,投资者和企业家,他们的活动,无论如何与人工智能的发展有关,签署了一封公开信,呼吁密切关注人工智能领域作品的安全性和公共利用问题。 签署此文件的人包括天体物理学家斯蒂芬霍金以及特斯拉和SpaceX Ilon Musk的创始人。 这封信以及由公共组织生命未来研究所(FLI)编制的随附文件,写在一个越来越关注人工智能对劳动力市场的影响的环境中,甚至是在机器人和机器的能力将会出现的全人类生存的长期前景中。几乎无拘无束地成长。
科学家们明白,今天人工智能的潜力非常高,因此有必要充分探索最佳利用的可能性,以避免伴随的陷阱,FLI写道。 人造AI系统必须完全符合我们的要求。 值得注意的是,Future of Life Institute仅在去年由他们所在领域的众多爱好者创立,其中包括Skype的创建者Jaan Tallinn,以“尽量减少人类面临的风险”并以“乐观的未来愿景”激发研究。 首先,我们谈论的是AI和机器人技术的发展所带来的风险。 FLI的顾问委员会包括马斯克和霍金以及着名演员摩根弗里曼和其他名人。 根据Ilona Mask的说法,人工智能的不受控制的发展可能比核能更大 武器.
在2015结束时,着名的英国天体物理学家斯蒂芬霍金试图解释他对人工智能技术的反对。 在他看来,嗜好的机器最终会将人们视为消耗品或蚂蚁,只会干扰他们所面临的任务。 斯蒂芬霍金与Reddit门户网站的用户进行交流时指出,他并不认为这种超级智能机器会成为“邪恶的生物”,因为他们具有智力优势而想要摧毁全人类。 最有可能的是,有可能谈论他们根本不会注意到人性这一事实。
“最近媒体不断歪曲我的言论。 人工智能开发的主要风险不是机器的恶意,而是它们的能力。 超级智能人工智能将完成任务,但如果它和我们的目标不一致,人类就会有非常严重的问题,“着名的科学家解释道。 作为一个例子,霍金引用了一个假设的情况,其中超级电力AI负责新水电站大坝的运营或建设。 对于这样一台机器来说,最重要的是委托系统将产生多少能量,而人们的命运无关紧要。 “我们中很少有人踩着蚁丘,踩着愤怒的蚂蚁,但让我们想象一下 - 你控制着一个发电的强大水电站。 如果你需要提高水位并且由于你的行动,一个蚁丘会被淹,那么溺水昆虫的问题不太可能打扰你。 我们不要把人放在蚂蚁的位置,“科学家说。
据霍金称,人工智能进一步发展的第二个潜在问题可能是“机器所有者的暴政” - 设法垄断智能机器生产的富人与世界其他人口之间的收入差距迅速增长。 斯蒂芬霍金提出以下列方式解决这些可能的问题 - 减缓人工智能开发的过程,转而开发不是“通用”,而是一种高度专业化的人工智能,只能解决非常有限的任务。
除了Hawking和Mask,还有诺贝尔奖获得者,MIT物理学教授Frank Wilczek,机器智能研究所(MIRI)执行董事Luke Mulhauser,以及来自主要IT公司的许多专家:谷歌,微软和IBM,以及企业家由Vicarious m DeepMind公司创立,专门从事AI系统的开发。 信中的编制者指出,他们并非旨在吓唬公众,而是计划强调与创造人工智能相关的积极和消极方面。 “目前,每个人都认为人工智能领域的研究正在充满信心,人工智能对现代人类社会的影响只会增加,”信中说:对人类开放的可能性是巨大的,现代文明所提供的一切都是由智力创造的。人。 如果人类智能可以与人工智能相乘,我们无法预测我们能够取得什么成就,但摆脱贫困和疾病的问题不再是无限困难。“
人工智能领域的众多发展,包括图像识别和语音识别系统,无人驾驶车辆等等,已经包含在现代生活中。 根据硅谷观察家的观点,今天在该领域正在实施超过150的创业公司。 与此同时,该领域的发展吸引了越来越多的投资投资,越来越多的像谷歌这样的公司正在开发基于人工智能的项目。 因此,该信的作者认为现在应该更多地关注所观察到的繁荣对人类生活的经济,社会和法律方面的所有可能后果。
尼克博斯特罗姆是牛津大学的教授,他以人类学原理着称。 这位专家认为人工智能已经到了这一点,其次是与人的不相容。 尼克博斯特罗姆强调,与基因工程和气候变化相比,为了控制哪些政府分配足够的金额,“没有采取任何措施来控制人工智能的发展”。 据该教授称,在人工智能方面,目前存在“需要填补的法律真空政策”。 甚至像无人驾驶车辆这样看起来无害且有用的技术也提出了许多问题。 例如,类似的汽车是否应该进行紧急制动以挽救乘客,并且在无人驾驶车辆发生事故时谁将负责?
Nick Bostrom对潜在风险进行争论时指出,“计算机无法确定对人类的益处和危害”,“对人类道德甚至没有任何想法。” 此外,计算机自我改进的周期可以以一个人根本无法跟随的速度发生,并且几乎没有任何事情可以做到这一点,科学家说。 “在发展的那个阶段,当计算机可以自己思考时,没有人能够准确地预测这是否会导致混乱或显着改善我们的世界,”尼克博斯特罗姆说,以最简单的计算机解决方案为例 - 在寒冷的国家关闭气候供暖对于人们的康复和增加他们的耐力,“可能会浮现人工智能”。
此外,博斯特罗姆还提出了削弱人类大脑的问题,以增加我们的生物智能。 “在许多方面,如果所有过程都受到控制,这样的程序会很有用,但如果植入的芯片可以重新编程,会发生什么? 这会导致什么样的后果 - 超人的出现或只看起来像男人的计算机的出现?“教授问道。 计算机解决人类问题的方式与我们的完全不同。 例如,在国际象棋中,人类大脑只考虑一组狭窄的动作,从中选择最佳选择。 反过来,计算机会考虑所有可能的动作,选择最好的动作。 在这种情况下,计算机不会期望在游戏中让对手感到不安或惊讶。 与下棋的人不同,计算机只能偶然做出狡猾而微妙的动作。 人工智能可以被认为是最好的方法 - 消除因“人为因素”而消除任何系统的错误,但是,与人类不同,机器人还没有准备好执行可以挽救人们生命的功绩。
此外,智能机器数量的增长是新工业革命的一个阶段。 反过来,这意味着在不久的将来,人类将面临不可避免的社会变革。 随着时间的推移,将会有很多高素质的专家,因为几乎所有简单的任务都能够采用机器人和其他机制。 科学家认为,人工智能“需要一只眼睛和一只眼睛”,这样我们的星球就不会变成一个卡通行星“Zhelezyaka”,它被机器人居住。
在越来越多的生产过程自动化方面,未来已经到来。 世界经济论坛(WEF)提交了报告,根据该报告,自动化将导致即使在2020之前,超过5,数百万在各个领域工作的人将失去工作地点。 这是机器人和机器人系统对我们生活的影响。 为编制该报告,世界经济论坛工作人员使用了来自世界各地的13,5百万工人的数据。 根据他们的数据,到2020年度,超过7数百万工作岗位的总需求将消失,而其他行业的预期就业增长将仅略高于2数百万个就业岗位。
信息来源:
http://www.ridus.ru/news/209869
http://www.vedomosti.ru/technology/articles/2015/01/13/ugrozy-iskusstvennogo-razuma
https://nplus1.ru/news/2016/01/19/they-took-our-jobs
http://ru.sputnik.kg/world/20151013/1019227239.html
值得注意的是,Amnon Eden博士是项目经理,其主要目标是分析人工智能的潜在破坏性影响。 科学家认为,如果没有正确理解创造人工智能的后果,它的发展就会面临灾难的危险。 目前,我们的社会对于科学界正在进行的关于人工智能潜在影响分析的争议知之甚少。 “在即将到来的2016中,对可能存在风险的分析必须在企业和政府,政治家以及负责制定决策的人的思维中得到更广泛的分析,”伊登说。
科学家肯定是科幻小说,它描述了人类的毁灭 机器人,可能很快就会成为我们的共同问题,因为创建 AI 的过程已经失控。 例如,Elon Musk 在企业家 Sam Altman 的支持下,决定创建一个新的 1 亿美元的非营利组织,致力于开发应该超越人类思维的开源 AI。 与此同时,美国亿万富翁埃隆马斯克本人将人工智能列为“对我们生存的最大威胁”。 苹果公司的共同创始人史蒂夫沃兹尼亚克去年 XNUMX 月表示,“未来看起来令人生畏,对人们来说非常危险……最终有一天,计算机会比我们思考得更快,它们会摆脱行动迟缓的人,从而公司可以更有效地运作。”
应该指出的是,许多科学家都看到了AI的威胁。 数十名着名的科学家,投资者和企业家,他们的活动,无论如何与人工智能的发展有关,签署了一封公开信,呼吁密切关注人工智能领域作品的安全性和公共利用问题。 签署此文件的人包括天体物理学家斯蒂芬霍金以及特斯拉和SpaceX Ilon Musk的创始人。 这封信以及由公共组织生命未来研究所(FLI)编制的随附文件,写在一个越来越关注人工智能对劳动力市场的影响的环境中,甚至是在机器人和机器的能力将会出现的全人类生存的长期前景中。几乎无拘无束地成长。
科学家们明白,今天人工智能的潜力非常高,因此有必要充分探索最佳利用的可能性,以避免伴随的陷阱,FLI写道。 人造AI系统必须完全符合我们的要求。 值得注意的是,Future of Life Institute仅在去年由他们所在领域的众多爱好者创立,其中包括Skype的创建者Jaan Tallinn,以“尽量减少人类面临的风险”并以“乐观的未来愿景”激发研究。 首先,我们谈论的是AI和机器人技术的发展所带来的风险。 FLI的顾问委员会包括马斯克和霍金以及着名演员摩根弗里曼和其他名人。 根据Ilona Mask的说法,人工智能的不受控制的发展可能比核能更大 武器.
在2015结束时,着名的英国天体物理学家斯蒂芬霍金试图解释他对人工智能技术的反对。 在他看来,嗜好的机器最终会将人们视为消耗品或蚂蚁,只会干扰他们所面临的任务。 斯蒂芬霍金与Reddit门户网站的用户进行交流时指出,他并不认为这种超级智能机器会成为“邪恶的生物”,因为他们具有智力优势而想要摧毁全人类。 最有可能的是,有可能谈论他们根本不会注意到人性这一事实。
“最近媒体不断歪曲我的言论。 人工智能开发的主要风险不是机器的恶意,而是它们的能力。 超级智能人工智能将完成任务,但如果它和我们的目标不一致,人类就会有非常严重的问题,“着名的科学家解释道。 作为一个例子,霍金引用了一个假设的情况,其中超级电力AI负责新水电站大坝的运营或建设。 对于这样一台机器来说,最重要的是委托系统将产生多少能量,而人们的命运无关紧要。 “我们中很少有人踩着蚁丘,踩着愤怒的蚂蚁,但让我们想象一下 - 你控制着一个发电的强大水电站。 如果你需要提高水位并且由于你的行动,一个蚁丘会被淹,那么溺水昆虫的问题不太可能打扰你。 我们不要把人放在蚂蚁的位置,“科学家说。
据霍金称,人工智能进一步发展的第二个潜在问题可能是“机器所有者的暴政” - 设法垄断智能机器生产的富人与世界其他人口之间的收入差距迅速增长。 斯蒂芬霍金提出以下列方式解决这些可能的问题 - 减缓人工智能开发的过程,转而开发不是“通用”,而是一种高度专业化的人工智能,只能解决非常有限的任务。
除了Hawking和Mask,还有诺贝尔奖获得者,MIT物理学教授Frank Wilczek,机器智能研究所(MIRI)执行董事Luke Mulhauser,以及来自主要IT公司的许多专家:谷歌,微软和IBM,以及企业家由Vicarious m DeepMind公司创立,专门从事AI系统的开发。 信中的编制者指出,他们并非旨在吓唬公众,而是计划强调与创造人工智能相关的积极和消极方面。 “目前,每个人都认为人工智能领域的研究正在充满信心,人工智能对现代人类社会的影响只会增加,”信中说:对人类开放的可能性是巨大的,现代文明所提供的一切都是由智力创造的。人。 如果人类智能可以与人工智能相乘,我们无法预测我们能够取得什么成就,但摆脱贫困和疾病的问题不再是无限困难。“
人工智能领域的众多发展,包括图像识别和语音识别系统,无人驾驶车辆等等,已经包含在现代生活中。 根据硅谷观察家的观点,今天在该领域正在实施超过150的创业公司。 与此同时,该领域的发展吸引了越来越多的投资投资,越来越多的像谷歌这样的公司正在开发基于人工智能的项目。 因此,该信的作者认为现在应该更多地关注所观察到的繁荣对人类生活的经济,社会和法律方面的所有可能后果。
尼克博斯特罗姆是牛津大学的教授,他以人类学原理着称。 这位专家认为人工智能已经到了这一点,其次是与人的不相容。 尼克博斯特罗姆强调,与基因工程和气候变化相比,为了控制哪些政府分配足够的金额,“没有采取任何措施来控制人工智能的发展”。 据该教授称,在人工智能方面,目前存在“需要填补的法律真空政策”。 甚至像无人驾驶车辆这样看起来无害且有用的技术也提出了许多问题。 例如,类似的汽车是否应该进行紧急制动以挽救乘客,并且在无人驾驶车辆发生事故时谁将负责?
Nick Bostrom对潜在风险进行争论时指出,“计算机无法确定对人类的益处和危害”,“对人类道德甚至没有任何想法。” 此外,计算机自我改进的周期可以以一个人根本无法跟随的速度发生,并且几乎没有任何事情可以做到这一点,科学家说。 “在发展的那个阶段,当计算机可以自己思考时,没有人能够准确地预测这是否会导致混乱或显着改善我们的世界,”尼克博斯特罗姆说,以最简单的计算机解决方案为例 - 在寒冷的国家关闭气候供暖对于人们的康复和增加他们的耐力,“可能会浮现人工智能”。
此外,博斯特罗姆还提出了削弱人类大脑的问题,以增加我们的生物智能。 “在许多方面,如果所有过程都受到控制,这样的程序会很有用,但如果植入的芯片可以重新编程,会发生什么? 这会导致什么样的后果 - 超人的出现或只看起来像男人的计算机的出现?“教授问道。 计算机解决人类问题的方式与我们的完全不同。 例如,在国际象棋中,人类大脑只考虑一组狭窄的动作,从中选择最佳选择。 反过来,计算机会考虑所有可能的动作,选择最好的动作。 在这种情况下,计算机不会期望在游戏中让对手感到不安或惊讶。 与下棋的人不同,计算机只能偶然做出狡猾而微妙的动作。 人工智能可以被认为是最好的方法 - 消除因“人为因素”而消除任何系统的错误,但是,与人类不同,机器人还没有准备好执行可以挽救人们生命的功绩。
此外,智能机器数量的增长是新工业革命的一个阶段。 反过来,这意味着在不久的将来,人类将面临不可避免的社会变革。 随着时间的推移,将会有很多高素质的专家,因为几乎所有简单的任务都能够采用机器人和其他机制。 科学家认为,人工智能“需要一只眼睛和一只眼睛”,这样我们的星球就不会变成一个卡通行星“Zhelezyaka”,它被机器人居住。
在越来越多的生产过程自动化方面,未来已经到来。 世界经济论坛(WEF)提交了报告,根据该报告,自动化将导致即使在2020之前,超过5,数百万在各个领域工作的人将失去工作地点。 这是机器人和机器人系统对我们生活的影响。 为编制该报告,世界经济论坛工作人员使用了来自世界各地的13,5百万工人的数据。 根据他们的数据,到2020年度,超过7数百万工作岗位的总需求将消失,而其他行业的预期就业增长将仅略高于2数百万个就业岗位。
信息来源:
http://www.ridus.ru/news/209869
http://www.vedomosti.ru/technology/articles/2015/01/13/ugrozy-iskusstvennogo-razuma
https://nplus1.ru/news/2016/01/19/they-took-our-jobs
http://ru.sputnik.kg/world/20151013/1019227239.html
信息