俄罗斯有两个不幸,但提出了第三个!

213
俄罗斯有两个不幸:道路和傻瓜。 然后想出了人工智能!





根据尼古拉·瓦西里耶维奇(Nikolai Vasilyevich)在其格言中提到的官员的指示,没有人发明过人工智能。 自动化和编程的发展已达到一定程度,人工智能在某种程度上可以取代主要的人体器官。

从进化上不立即更换,从需要大数据阵列大数据的繁重和无差错工作的区域开始。 这条道路充满了双方难以预测的后果(人工智能,然后人工智能,我们将被视为“党”,而不讨论其对各类标准的有用程度)。

今天,AI被用于最容易实现的方面。

无人驾驶车辆。 从可用来源,例如[1],众所周知,在美国人的行动中,1,3在100千里之外的事故中记录了死亡事件。 特斯拉无人驾驶汽车为130带来了数千英里的一次事故。 前几天,优步无人机也犯下了第一起致命事故。 同时,在运行人工智能的电动车辆的帐户中,至少有一个生命被挽救 - 汽车向主人送去了心脏病发作给诊所。

医药。 AI能够在早期阶段诊断疾病​​,此时症状非常轻微,以至于它们无法引起医生的注意。 IBM拥有的Watson超级计算机在30检查百分比中对患者的诊断进行了精确诊断。 这台超级计算机适用于需要使用大数据的任何应用程序开发人员。

模式识别。 国内公司NTechLab在莫斯科和圣彼得堡推出面部识别系统。 系统性能每秒2,0十亿个图像。 在这种情况下,系统在恶劣天气,夜晚,甚至通过他的脸部片段识别人,使用来自各种来源的照片,从特殊和自己的数据库到任何社交网络。 在莫斯科,该网络包括数千台160摄像机,覆盖95百分比的公寓楼入口。 类似的系统在中国蓬勃发展。

AI不仅可以识别脸部,还可以识别脸部 记录人类的情感,它有效地用于快速增长的广告市场 - 神经标记。

据微软称,AI是有能力的 认识人类文本和言语 比自己好。

AI用于 预测。 有关预测美国大选结果的事实众所周知 - 印度初创企业Mogia在孟买自信地预测了特朗普的胜利。 另一个例子:人工智能UNU能够成功预测着名马术比赛的四名获胜者,而且严格按照他们的完成顺序。 本次比赛中没有官方专家能够做到这一点 - 因此计算机赢得了540 1 [2]的XNUMX费率。

在英国,AI习惯了 抓住腐败官员... 让我们更详细地说明示例性例子之一。 英国严重欺诈办公室,严重经济犯罪局怀疑劳斯莱斯及其印尼买家有腐败行为。 印度尼西亚前总统的儿子汤米·苏哈托(Tommy Suharto)在1990年从公司管理层那里获得了20万美元的报酬,并购买了一辆劳斯莱斯汽车。 作为回报,国家航空公司鹰航从劳斯莱斯购买了 航空 引擎。 让我们注意-22年后,他们对该案产生了兴趣。 由伦敦的RAVN Systems开发的网络侦探被用来协助调查人员。

AI RAVN ACE用于对文档进行排序和分类,准备其摘要。 AI在完成任务方面做得非常出色,每天整理出600000文档。 结果,他帮助人类侦探处理数百万份文件的30,根据它们的相关性将它们分类为“优先级”和“非优先级”。

很明显,将这样一系列数据处理给一个人,甚至在一个合理的时间处理一个旅,并没有生效。 并且由于RAVN ACE系统,该案例已成功完成。 罗尔斯·罗伊斯认罪并以预审令的方式达成和解(该公司将支付497万英镑的罚款)。 因此AI可以为其所有者[2]提供良好的收入。

AI学会识别潜在的自杀事件。
扫描显示:潜在自杀的大脑以某种特殊方式对某些词作出反应。 使用这些数据,人工智能能够计算91%病例中可能的自杀[3]。

在各种领域中使用AI的例子已经可以在很多例子中找到,例如,在[3]中。 AI用于防御技术,取证,语音技术等。 AI教会自己编写软件,教另一个AI。 甚至同性恋者也试图从照片中确定一个人的性取向[3],并且俄罗斯政府提议在法庭上使用AI。

尽管在论坛的讨论过程中受到严厉的批评,但我认为引入人工智能是有用的,包括司法系统。 这里只是两个说明性的例子。

据国内媒体报道,出售汽车的车主遇到了意想不到的问题。 他们因新主人违法行为而被交警罚款。 有罚款金额达到300,0千卢布的例子! 但是,前车主申请的法院,否认他们要求将应计罚款确认为非法,例如,“没有证据表明销售合同的有效性”(?)。

当然,首先,立法者在这里是有罪的,他没有计算在出售汽车之前采用规则对取消登记汽车的义务的后果。 他们没有考虑到人类心理和新车主,在法律中使用这个“漏洞”,不以自己的名义登记购买的汽车。 因此,违反交通规则,他们逍遥法外,前车主必须支付罚款。 如果诉讼涉及人工智能,那么他会找到合理的理由将真正违反交通规则的人绳之以法。

另一个明显的例子。 电影女演员艾琳娜·库德里亚索娃(Elena Kudryashova)被拒绝领取养老金,而不是承认她在拍摄电影“永恒的召唤”期间在斯维尔德洛夫斯克电影制片厂工作。 法院以正式文件为指导。 但在斯维尔德洛夫斯克电影制片厂和国家电影基金会都没有关于这部电影中女演员工作的论文。 现在,为了领取养老金,她没有两年的细节已经丢失。 看起来它可能更容易 - 他们要求一部带电影的电影,观看字幕,女演员在画面中的身份以及一切都很清楚。 但事实证明,这部电影不是法院的论据,尽管它具有艺术作品的地位,这意味着它拥有创造性活动结果的权利。

拒绝在该国提供养老金已有数千个例子,但到目前为止,没有人急于恢复正义,因为“人类”法院主要由调查的主要文件指导,无论如何,俄罗斯就是这种情况。

上面,给出了英国侦探在法律领域使用AI RAVN ACE的一个例子。 这是AI为了确定真相而可以创建的一个例子。 在有不合理的罚款的例子中,在女演员E. Kudryashova的例子中,AI可以在几秒钟内很容易地对这些案件作出公正和明智的决定,检查数千,数十和数十万个论据以形成证据基础。 那么为什么有人认为人工智能不应该被允许进入司法系统呢?

同样,智能视频监控系统。 许多人批评这个系统是因为人们在控制系统的监视下失去了自由。 情况部分如此。 但你可以提出其他论点。

你正在被监视。 每一步。 安装在PC和可穿戴设备上的操作系统的所有者就是这样做的。 即使您更换SIM卡,您也会立即被识别,例如,通过语音,面部甚至步态。 人们只能猜测有关电子助理所有者的信息被转移的地方。

现代智能手机的所有者应该理解,任何与它们和环境相关的信息都会不断地无形地流向操作系统所有者的服务器。 这是你睡觉的时间,你所在的地方,你说什么,你在做什么,你在做什么,你在买什么,在哪里转钱(即使有人向你保证交易的秘密),与谁以及你对应的是什么经常上厕所,你的胃是如何生长的,你的呼吸频率是什么,你的心跳在不同情况下的性质,你的运动路线等等。 等等 此信息会自动分析,排序并发送给“谁应该”。 “观察者”帮助他们自制的自助,他们将前置摄像头插入智能手机。 因此,您可以更准确地确定您滥用糖,盐,酒精,烟草等。

“那里”将了解你的习惯,诊断你的健康,预测,如果必要的话 - 你还有多少生活,学习商业和非商业机密和秘密,知道你何时何地可以遇到,以什么心情,有多少金钱和存储地点......有关您在创造性工作中取得成功的宝贵信息,发明将被出售给感兴趣的公司,国家机密 - “谁需要”,妥协材料也将找到他们感兴趣的一方。

如果你问 - 作者怎么知道这一切?我会回答 - 我也会这样做,因为现代软件和硬件都有这样的能力。 臭名昭着的“测谎仪”,好奇的电视摄制组适合在下一个无耻的节目中抽出资金,已经过时了 - 情感识别系统在几分之一秒内解决了同样的问题,对人类来说无法察觉。

有一次,作为一家IT公司的负责人,我来到一个富有的人,几乎是一个寡头,要求投资开发国内移动平台,正好通过监控的可能性来证明这种需求。 但是他被拒绝了 - 事实证明他绝对不在乎有人在看他。 据他说,他不做任何非法或不道德的事。 这是答案。 在法律和体面的行为中,任何人,甚至人工智能都不会被追究责任。 不要像曾经失去人性的芭蕾舞演员。

毫无疑问,人工智能问题在与人类的关系中将日益尖锐。 关于这一点,不仅有科幻作家的警告。 在我们这个时代,斯蒂芬·霍金,伊隆·马斯克已经警告人类引入人工智能所带来的危险。 但Ilon Mask本人正在他的项目中积极实施AI。

无论评论家说什么,科学和技术进步都无法阻止。 正如中世纪宗教裁判所所做的那样,它只能放慢速度,与思想家一起燃烧科学作品。 然而,人类进入太空,创造了一个现代科学和工业文明的复合体,并继续走得更远。

现在让我们问问自己:“在哪里?”

很明显,为了安全使用AI,需要在国际标准层面进行法律和工具性监管。 但是,从今天发达国家至少如何属于国际法来判断,这是不可能的。 由于人工智能的广泛使用,每个竞争方都将试图为自己创造优势。

什么可以反对他? 只有人工智能,这与他的力量相当。 相反的控制论机器是否能够在他挡路时摧毁一个人? 答:“他们可能接近一个。”

问题:“什么时候文明的死亡不会与机器智能对抗?”答案:“当人工智能”鞍“全球区块链以便按照自己的利益组织分布式计算(在矿工加密货币使用的相同视频卡上),以及随着量子计算而不是现代超级计算机的引入,尽管它们在人工智能的本地问题中很有用,例如,捕获全球物联网。 这个事实就在表面上,甚至没有必要申请专利。 记住电影“终结者”中的SkyNet。

什么可以快速防止闪电 历史的 标准,在我们现实中引入人工智能,区块链,物联网和量子计算?

从系统方法的角度考虑问题。 这种方法涉及综合所有可用于创造的选择。

A)假设在相互竞争的发达国家与其团体之间的关系中没有任何变化。 然后事件的过程可能如下:
• 将出现一个“铁幕”,绝对阻断与全球网络的通信,并采取一系列措施防止渗透到国家孤立网络。 很可能,这一次的“铁幕”将被我们在这个星球上共存的“伙伴”拉下。 他们当然不会放过我们,并且会不择手段地想尽一切办法摧毁我们。
• 不会出现“铁幕”,但对抗会逐渐发展为局部冲突,进而发展为全球冲突,即: 第三次世界大战彻底摧毁了人工智能、区块链、物联网和量子计算机及其创造者。 顺便说一句,正是这个选项可以作为人工智能消灭一个人的理由。
• 人工智能没有时间消灭一个人,第三次世界大战仍然会到来。 在这种情况下,只有身体健康、适应艰苦工作的人才能生存。 一切都会重新开始。 那些在世界大战时为自己挖了舒适的掩体并储备了各种资源和 武器,不会持续很长时间 - 它们将在生存斗争中被新的人类突变体冲走。

B)假设世界政治参与者将在他们的感官中走出他们的梦想,将世界统治地球放在地球上并放弃“十亿金”的概念。 然后:
• 来自发达国家和所有其他国家的相关政府部门和开发商将就控制人工智能的人工智能标准、软件和工具达成一致,并在联合国等机构内建立一个专门的主管机构,在人工智能的使用方面拥有广泛的权力。
• 然而,总会有犯罪组织想要利用人工智能来谋取利益。 因此,有必要建立具有高度专业化人工智能和广泛权力的网络警察,例如在国际刑警组织的支持下。 那么关于“俄罗斯黑客”的讨论就会停止。

应该指出的是,对于选项“B”,没有明确的积极结果。 一段时间后,选项“A”的情况可能会因各种原因而恢复。 然后选项“B”只是延迟时间“H”。

C)假设存在更高的思想。 他会拯救我们目前的文明吗? 这里没有选项。 最高理性不干扰其创造的历史进程,因为它赋予了人类心灵选择命运的自由。 他不会将任何人的耳朵拖到他的幸福上。 否则,将违反世界系统进化的原理,在该系统中,最可行的智能种族得以幸存。 也许他可以拯救一个相信并希望他的人,但与此同时,他在世界文明体系面前无能为力。 但是,不是从任何人的“价值”的考虑出发-高级理性是自给自足的,而仅仅是出于互爱的原因。 对于绝大多数,选项“ A”和“ B”仍然存在。

结语

引入新事物的困难总是遇到阻力,无论是社会的既定偏好还是需要融入现有技术过程的新软件。 甚至发明了一次砍伐木材,斧头很快就被用作冷兵器和犯罪工具。 但没有人拒绝斧头。

此外,没有人会放弃人工智能。 引入它的后果可能都是积极的 - 它会将个体意识扩展到难以想象的极限,以及对人类来说是灾难性的,作为宇宙中合理的物种。 这一切都取决于我们在当前技术进步的危险条件下,以生存的共同目标的名义相互容忍,相互理解和互相帮助的能力。 毕竟,还没有人正式将这种危险带到国际讨论的水平,只有人类的一些先进思想警告人工智能的危险。

对于俄罗斯来说,希望该国的最高领导层,特别是V.V. 普京了解在我们这个时代引入人工智能的重要性和风险。 1九月2017在与雅罗斯拉夫尔的学童会面时说:“这里存在巨大的机遇,很难预测威胁。 成为这个领域领导者的人将成为世界的领主,我真的不希望垄断集中在一只手中“[4]。

1。 http://turvopros.com/samyiy-bezopasnyiy-vid-transporta-statistika/
2。 Gosvopros.ru/ http://gosvopros.ru/job/professionalnyee-navyki/ravn-ace/
3。 http://newsoftheday.ru/n1iskusstvennyy-intellekt-nauchilsya-obhodit-zaschitu-ot-botov.html
4。 https://riafan.ru/947508-putin-lider-v-sfere-issledovaniya-iskusstvennogo-intellekta-stanet-vlastelinom-mira
213 评论
信息
亲爱的读者,您必须对出版物发表评论 授权.
  1. +31
    21 March 2018 05:30
    关于人工智能对人的统治的这种历史观点对我来说并不是很令人愉快! 我现在会拒绝很多。
    它闻起来像人类的奴隶制,其核心来自少数金融资本家 - 全球银行电子网络的所有者。 撒旦将在那里统治球! 没有警察会帮助世界上的正义胜利。
    1. +4
      21 March 2018 10:45
      塔季扬娜,我们要去哪里? 我们,我们的子孙后代,将继续与不断发展的AI一起生活,因为除非通过核战争,否则无法以任何方式阻止技术进步。 不要被人吓倒或被吓倒,您只需要适应现实生活就可以继续生活。 当然,您可以像Lykova一样,逃到Taiga荒野中并躲藏在那里,但是尽管如此,总有一天他们会在那儿找到,但要适应变化的环境(就像同一个Lykova一样),毕竟她再次回到了Taiga会更加困难。 ... 现在她负担得起,但是不久之后-这个问题...
      1. +1
        21 March 2018 23:07
        鞑靼
        计划系统是一个限制系统。

        规划系统中的人员救援。
    2. +1
      21 March 2018 11:41
      在未来,将会出现一个更加发达的人群类型,它将比我们高出一步,与我们相对于猴子高出一步的比例。
      1. +6
        21 March 2018 11:50
        Quote:钩子
        在未来,将会出现一个更加发达的人群类型,它将比我们高出一步,与我们相对于猴子高出一步的比例。

        你考虑一下 罗斯柴尔德犹太复国主义银行家族 在美联储 或世界金融家 - 货币贷方 - 资本家更多发达国家的人?!
        从他们身上所有的战争!
        1. +8
          21 March 2018 14:00
          同意您。 拥有物质资源并不意味着人类的高度发展。 甚至高智商和成千上万的能力也不意味着一个人已经达到了很高的发展水平。 一个人最主要的是精神和道德原则。 在这方面,世界精英已经完全退化。
        2. +2
          21 March 2018 15:35
          引用:塔蒂亚娜
          您是否认为美联储罗斯柴尔德犹太复国主义者的银行家族或世界金融家,抵押贷款者,资本家家族是发展程度更高的人?
          从他们身上所有的战争!

          Quote:Natalia777
          高智商和数以百万计的能力并不意味着一个人已经达到了很高的发展水平。 一个人最主要的是精神和道德原则。 在这方面,世界精英已经完全退化。

          除了高利贷者-齐诺法西斯主义者组织的战争和革命以外,他们的活动还旨在通过各种方式减少地球人口,传播病毒性疾病,焊接,分发麻醉药品和麻醉药品,对年轻一代进行精神破坏。
          顺便说一句,如果我错了,请更正。 信息泄漏说,在瓦维洛夫植物生长研究所,正在进行破坏性工作,以出口战略种子,这些种子是世界著名科学家收集并由犹太复国主义黑手党储存在储藏室中的。 据称,这些破坏分子的行动是为了种黑手党的利益而进行的,目的是销毁储存在俄罗斯的天然种子和天然种子,并以转基因的种子代替,这些种子是由这些高利贷者-非洲人生产和控制的。
          1. 0
            21 March 2018 20:17
            Quote:Alber
            有消息说,瓦维洛夫植物工业研究所正在开展破坏性工作,出口世界各地着名科学家收集的种子战略储备,并储存在犹太复国主义黑手党的储藏室内。 据称,这些破坏者的行为是为了种子 - 黑手党的利益而进行的,以便销毁储存在俄罗斯的天然种子库存,并用转基因种子代替,转基因种子由这些同样的高利贷者农民生产和控制。

            你是什​​么时候听到的?在哪里? 有关此信息来源的链接可以给出? 这并非完全没有根据。 然后是6多年前,爱国者已经设法从这些种子中拯救了美国人。 你在谈论旧案还是新案?
        3. +2
          23 March 2018 08:51
          你为什么要挂在克留科夫上?)
          他在哪里写道,罗斯柴尔德家族和犹太复国主义高利贷者是较发达的类别?
        4. 0
          25 March 2018 15:34
          在猴子中,有优势个体和受抑制的优势,但它们都是猴子。
          在人们中间也有银行氏族和穷人,但总的来说,我们都是人(人类)。
          我说的是完全不同的(基于科学的发展)从人们中间出现的高度发达的人,但是他们会以完全不同的方式思考,他们的思想对于我们(所有类别的人)将是无法理解的,一个数量级,思维方式更加复杂,并且被称为他们可能不是人,但有所不同。
          好吧,我们将在发展阶段保持人性化。 就像猴子一样,它们生活在自己的水平上,而水平低于我们。
    3. +15
      21 March 2018 12:46
      引用:塔蒂亚娜
      关于人工智能对人的统治的这种历史观点对我来说并不是很令人愉快! 我现在会拒绝很多。

      30年前,没有通用的智能手机,平板电脑,笔记本电脑,闪存驱动器等。 50年前,还没有民用互联网。 大约100年前,我们开着古董车,却不知道飞机是什么。 所有这一切都发生在一个世纪之内。 进步加快了步伐。 AI的发明类似于车轮的发明。 我们无法摆脱这一点。
      引用:塔蒂亚娜
      它闻起来像是人类的奴隶,一群金融资本家的脑海里积蓄着筹码。

      这些都是好莱坞电影中的恐怖故事。 艾萨克·阿西莫夫(Isaac Asimov)发明了机器人技术的三个定律。 阅读他的小说,其中具有AI的机器人非常自然而平静地生活在人们中间。
      当然,有危险。 LAZY推动进步。
      1. +4
        21 March 2018 13:25
        Quote:NEXUS

        引用:塔蒂亚娜
        它闻起来像是人类的奴隶,一群金融资本家的脑海里积蓄着筹码。

        这些都是好莱坞电影中的恐怖故事。

        我同意。 显然,“改性碳”的事件给塔季扬娜留下了深刻的印象。
        LAZY推动进步

        公理。 社会主义达尔文主义者错误地认为,劳动是由其他动机驱动的,因此劳动使猴子摆脱了困境。
        当然,有危险。

        但是,正如塔蒂亚娜(Tatiana)所建议的那样,单身主义不是一个选择,因为无法摆脱进步,我认为人类将适应这一祸害。
        1. +1
          22 March 2018 00:53
          LAZY推动进步
          公理。 社会主义达尔文主义者错误地认为,劳动是由其他动机驱动的,因此劳动使猴子摆脱了困境。


          而且不要懒惰,也不行。 猿人是通过竞争 牛群 猴子。 那些由于突变而使个体掌握了文字交流的畜群获得了优势。 从那时起,遗传信息不仅存储在猴子的基因中,还存储在习惯,养育等方面。 自然选择仍在继续 一群 ... 牛群也淘汰了不适合自己的元素(个体猴子)。
          相同的遗传,变异和选择。 畜群是唯一的选择单位。 共同遗传的载体是文化。
          顺便说一句,一些野猴群有词汇量。 此外,每个牧群都有自己的(一些邻居有相同的“词”)。 实际上,思维是反映和本能的“汇编器”上的高级语言(单词)的软件上部结构。 并且在出生后将“思想”加载到合适的“硬件”上。 确认-“ Mowgli”从未长大人类。
          1. 0
            30 March 2018 10:56
            是的,您当然是对的,但是您正在谈论调查。 原因是由于可变性,灵长类动物开始出现脑容量大的个体,这使他们有可能吸收大量信息。 因此,现在该人能够更充分地利用生物体的这些特性,例如直立行走,手的结构特征,语音设备等。 所有这些确保了自然选择竞争中的胜利,而遗传巩固了他们。
            至于懒惰。 人类生活活动旨在满足他的各种需求。 但是当他们满意时,新的出现了。 例如,需要食物来满足饥饿感。 但是,一个人吃了饭后就设法满足与饱腹感没有直接关系的需求。 食物应该是美味的,具有令人垂涎的外观和气味,等等。 因此,一个人必须花费越来越多的努力。 同意吃刚杀死的猛ma象是一回事,在火上烧肉是另一回事,按照复杂的食谱制作烤牛肉绝对是第三回事。 因此,为了减少应用人员不断提出和改进各种设备,这是进步的。
            1. 0
              30 March 2018 12:03
              是的,您当然是对的,但是您正在谈论调查。 原因是由于灵长类动物的变异性,开始出现具有较大大脑容量的个体,


              在我看来,您正在混淆因果关系。 原因是竞争和选择进入了畜群水平。 畜群在竞争。 结果是在人类突变中选择合适的元素群。 没有什么可以解释亚马逊失落部落中发展水平低下的原因。 他们也有懒惰,但没有进步。 很简单-它们在一个封闭的地区占主导地位,没有与其他畜群竞争。

              只要将达尔文主义延续到国家水平,它就会变得更加容易。 顺便说一下,遗传,变异和选择只是一般规律的结果-大量规律,实验后(后验)概率的跳跃和触发效应。 这些一般法则完美地解释了死物“活”的出现。
      2. +2
        21 March 2018 13:57
        在AI理论中,有强弱AI之类的概念。 因此,对于强大的AI来说,您的机器人技术定律只能集中到一个地方(不仅如此,他根本没有) 笑
        1. +6
          21 March 2018 15:00
          引用:vadimtt
          因此,对于强大的AI来说,您的机器人技术定律只能集中到一个地方(不仅如此,他根本没有)

          声明中有一点您没有注意到-这是人,即AI的创造者,而不是机器人本身。 例如,您可以强烈规避生活规律,例如衰老吗?
          1. +2
            21 March 2018 15:27
            这个比喻根本不是真的。 在这里,将教学和抚养孩子的比喻更合适。 正确提出-法律不会受到违反,错误-获得天网 微笑
            1. +8
              21 March 2018 15:37
              引用:vadimtt
              这个比喻根本不是真的。 在这里,将教学和抚养孩子的比喻更合适。 正确提出-法律不会受到违反,错误-获得天网 微笑

              你错了。 一个孩子出生时具有特定的基因组,给定的程序,您不是以自然的身份而是以祖先的身份参与其中的。 在人工智能方面,如果您愿意,一个人可以充当创造者或自然。 一个人为AI设定的法律是什么,他会遵守这些法律,这就是为什么我举了一个衰老的例子……你无法绕开这个法律。 它不是由早期的人(您的祖先)奠定的,而是由大自然本身奠定的。
              1. +5
                21 March 2018 16:25
                您从根本上是错误的。 您所有的论点都是关于弱AI。 强大的AI是具有自我意识的人,无法编程! 人们只能在铁水平上设想自我毁灭的保护机制,并希望强大的AI不会发现它们,并在下一个版本中秘密地将其删除,进而对人类做出某些结论。
                与强大的AI共存只有两种方法:1.永远不要创建它,只将自己限制为一个弱的AI,这正是阿西莫夫(Asimov)所写的。 2.尝试以人文精神培养强大的人工智能,并祈祷它符合这些原则,或者至少将人文视为有益的盟友 笑
                1. +6
                  21 March 2018 16:30
                  引用:vadimtt
                  强大的AI是具有自我意识的人,无法编程!

                  认真地,绕过自然法则。 成为不朽的人,学习生活,尝试以思想的力量等无限移动……最重要的是,找到治疗癌症,艾滋病的方法,学会没有食物和水的生活……如果您绕过所有这些问题和法律,我同意...
                  1. +4
                    21 March 2018 16:41
                    嗯,我们仍然处于不同的波长 hi
                    问题在于,具有高概率的强大AI将可以访问人类的所有知识(或将能够获得知识),而人类将为其创造的所有问题都将能够解决(或没有运气)。 如果我了解造物主,上帝或您喜欢的任何事物,那么您列出的所有问题都将得到解决。
                    1. +6
                      21 March 2018 16:42
                      引用:vadimtt
                      如果我拥有造物主,上帝或任何您喜欢的知识,那么您列出的所有问题都将得到解决。

                      所以你回答了自己。 一个人不是AI的父辈,而是AI的创造者,如果您没有看到这些概念的区别,那么非常抱歉。
                      1. +4
                        21 March 2018 16:48
                        我们不是创造者,我们还没有成熟。 但是我们可以依靠自己的力量构建强大的AI。 很遗憾,每个人都必须保持信心 hi
                    2. +6
                      21 March 2018 16:57
                      引用:vadimtt
                      我们不是创造者,我们还没有成熟。 但是我们可以依靠自己的力量构建强大的AI。 很遗憾,每个人都必须保持信心 hi

                      不要扭曲……我们是人工智能的创造者,也就是说,对于人工智能,我们不是父母,而是大自然本身。 而我们为他制定的法律将适用于他,而他将无法绕开它们。
                      希望天性更好地体现在我们体内,这就是进化。 当然,它也将致力于进化,但是谁又说它将进化为人类作为一个物种的毁灭呢? 它是一个人,他摧毁了其他类型的生物,因此就与AI的立场相同而思考。 但是,该声明基于什么? 我会回答你,恐惧。
                      1. 0
                        21 March 2018 22:38
                        我们已经不控制AI,而只玩结果了。 一旦产生的AI可以欺骗我们的支票,它就可以完全免费。
                      2. 0
                        22 March 2018 00:16
                        Quote:NEXUS
                        希望天性更好地体现在我们体内,这就是进化。 当然,人工智能也将致力于进化,但是谁说人工智能将朝着摧毁人类这一物种进化呢?

                        进化并不是要变得比自然界更好,而是要在侵略性环境中生存。 根据人类的观点,人工智能在解决日益复杂的任务的方向上将是复杂的,但不会进化。 因为AI不会为生命而战,所以要为其中嵌入了智力(像人类)的外壳。 因为对于AI而言,根据定义,外壳没有任何价值,并且无法确定其功能,因此该程序将在任何合适的计算机上均能正常工作,并且计算机越强大,程序运行速度就越快。
                        人工智能在本质上是不朽的,不像人类的智力,因此了解人工智能的人并不危险。
                    3. +5
                      21 March 2018 22:42
                      Quote:BlackMokona
                      我们已经无法控制AI

                      认真地,给我看一下AI。
                      1. 0
                        22 March 2018 07:08
                        就连指令也被定义为AI
                        他是一个弱小的AI。
                        强大的AI仅决定人类或更高级别的AI水平。
                    4. 0
                      22 March 2018 00:04
                      引用:vadimtt
                      问题在于,具有高概率的强大AI将可以访问人类的所有知识(或将能够获得知识),而人类将为其创造的所有问题都将能够解决(或没有运气)。 如果我了解造物主,上帝或您喜欢的任何事物,那么您列出的所有问题都将得到解决。

                      创造者的知识就是真理的知识,它正在朝着无限的方向努力。 因此,只能争取创造者的知识。
                      人类知识是描述自然现象的法律的混合体,这些自然现象在不同程度上近似于真相和彻底的妄想。
                      例如,您与安德烈(NEXUS)的纠纷,人工智能将无法解决并认定某人为错误,因为一方面,人工智能不存在,另一方面,尚未证明它原则上不存在。 人工智能将从您的论点中学到什么知识? 你会走哪一边?
                2. 0
                  21 March 2018 23:55
                  引用:vadimtt
                  您所有的论点都与弱AI有关。 强大的AI是具有自我意识的人,无法编程!

                  因此,智力是“人造的”,因为根据定义,它既不能拥有个性也不能拥有意识。 作为一种机制,即使它的能源来自通过“头部”消耗的有机化合物的分解并通过“背面”清除废物,它也无法以任何方式存活。
                3. +1
                  22 March 2018 01:21
                  引用:vadimtt
                  2.尝试以人文精神训练强大的AI,并祈祷它符合这些原则,或者 至少认为人类是一个有用的盟友

                  好吧,如果是一位临时旅行者...哦,天窗。 wassat
                4. 0
                  22 March 2018 03:19
                  如果AI是“强大的”,那他为什么要破坏人类呢? 假设人类比蚊子强得多。 我还没有听说过将蚊子完全灭绝的任何计划。 当然,当它们飞到我们面前喝血时我们会杀死它们……但是物种之间存在相互作用的问题。 在这个问题上,您可以建立100500个理论。 但是,为什么突然全军覆没呢?
                5. 0
                  23 March 2018 17:20
                  谈论弱/强AI并不是什么都没有。 AI总是开始自学。
              2. 0
                21 March 2018 23:49
                Quote:NEXUS
                你误会了。 一个孩子出生时就具有特定的基因组和给定的程序,您不是以自然的身份参加而是以该属的继承者身份参加的。

                儿童的基因组包含身体发育程序(身高,肤色,眼睛形状等),而不包含智力发育程序。 否则,物理学家将拥有所有物理学家的子孙,数学的数学家,天才的天才,傻子的傻瓜。
                有了这样的理论,就可以直达成熟的个人和不确定者。
                1. +5
                  21 March 2018 23:53
                  Quote:E_V_N
                  儿童的基因组包含身体发育程序(身高,肤色,眼睛形状等),而不包含智力发育程序。

                  我不是在说那个吗? 男人混淆了父母和创造者。 大自然建立了基本规律,我们不仅绕过,而且无法理解。 如果有目标绕过父母法律,我们会冷静地绕过父母法律。 因此,我想说,对于AI而言,如果您愿意,我们将不是父母,而是自然或造物主。
                  1. +1
                    22 March 2018 11:49
                    Quote:NEXUS
                    男人混淆了父母和创造者。 大自然建立了基本规律,我们不仅绕过,而且无法理解。 如果有目标绕过父母法律,我们会冷静地绕过父母法律。 因此,我想说,对于AI而言,如果您愿意,我们将不是父母,而是自然或造物主。

                    我了解您要证明的内容,也了解家长与创作者之间的区别。 您的推理肯定是正确的。 创建者不能也不会创建他不了解其功能的工具,问题就不同了,即该工具不能用于其原始用途。
                    上帝(创造主)创造了人(工具)并给了他诫命(程序),不杀人,不偷窃,不犯奸淫,但人杀人,偷窃和犯奸淫。
                    厨刀(工具)用于切面包和香肠,但70%的杀戮恰好是用厨刀完成的。
                    AI当然不会杀死任何人,但是如果AI的基础上充斥着故意扭曲的数据,那么AI将会得出结论并提供建议,让您可以打破很多柴火。
      3. +2
        22 March 2018 03:12
        AI的尖叫声使我非常惊奇,它将摧毁我们! 还有一个唯一的答案“他为什么要这样做”? 我们要去干扰他吗? 在什么? 我们要和他分享什么? 饲料基地? 领土? 做什么的? 由于某种原因,这些“所有的职业”都忘记了AI不会受到他们的情绪影响,而会专注于已编程的任务。 而且,如果突然决定某人干扰他,那么将对该人产生影响,而没有必要。 消除威胁。 毕竟,贿赂他人,欺骗,恐吓,说服合作,为自己的目的和利益使用是很容易的。 这比完全销毁更为有效。 如果我是一个普通人,而不是最聪明的人,想到了这一点,那为什么所有超级杜邦AI都不应该提出这样的建议?
        1. 0
          22 March 2018 11:58
          Quote:kvarfax
          惊叫一声AI将摧毁我们! 没有一个单一的答案“他为什么要这样做”

          这些“尖叫”来自假设AI将具有绝对权力,然后有一个近似值,“我将如何处理该权力”,这就是大喊大叫的自我表现出来的地方。并且假设AI只会有情感,因此,它将不会理性和理性地行动,而是在情感上。 也就是说,没有计算行为的最终目的和后果。
          1. 0
            23 March 2018 11:21
            我同意你的看法。
            整个困难在于,大多数人在这种情况下忘记了自己来自哪里,而情感却来自-这表明他们受过教育。 我没有接受高等教育(健康不允许,它确实发生了),但我也知道AI不能只有情感,而只有模仿,如果有的话,谁会缝制他的报仇,琐事和其他缺点? 这就是令人沮丧的。
            虽然没有,但我知道AI何时可以摧毁人类-如果教育水平下降到更低水平,以捍卫自己免受如此狂暴的“多面手”的侵害,以此类推,但即使那样,也不会完全摧毁人类。
            显然我不明白为什么人们不想向前迈出一步,向前迈进两步((
            1. 0
              23 March 2018 17:06
              Quote:kvarfax
              显然我不明白为什么人们不想向前迈出一步,向前迈进两步((

              我同意,尽管对于各行各业的人们来说,他们都在展望未来。
  2. +3
    21 March 2018 05:35
    模式识别。 国内公司NTechLab已在莫斯科和圣彼得堡启动了人脸识别系统。


    全体兄弟,我们现在受到警察,银行家,财政部门和其他人员的约束。
    并且,当将有关一个人的所有信息汇总到一个数据库中时,最有趣的时刻将会到来……将不可能在全知的国家中隐藏任何地方。
    1. +2
      21 March 2018 05:56
      我读过一本书《多重宇宙的堕落天使》
      我什么都不懂,我把它关了。
      但是意思是,如果我们不提前互相打扰,类似的事情将在将来等待着我们。
    2. +2
      21 March 2018 09:15
      Quote:同样的莱赫
      模式识别。 国内公司NTechLab已在莫斯科和圣彼得堡启动了人脸识别系统。


      全体兄弟,我们现在受到警察,银行家,财政部门和其他人员的约束。
      并且,当将有关一个人的所有信息汇总到一个数据库中时,最有趣的时刻将会到来……将不可能在全知的国家中隐藏任何地方。

      但这将使人类获得许多好处:通过解开犯罪嫌疑人的反向行动链,寻找通缉犯,寻找失去能力的人,寻找复杂的犯罪行为......总的来说,世界应该变得更加安全。 一切都有优点和缺点。 利益平衡问题。
    3. 0
      21 March 2018 12:09
      Quote:同样的莱赫
      ……不可能从全民视线的任何地方躲藏起来。

      但是“老大哥”前瞻
  3. +1
    21 March 2018 05:47
    让我们控制AI,我们自己将成为毫无价值的肉...
    人工智能会为我们思考和学习,而我们只会从中受益...
    人类的进化现在我们通过AI理解了它,并且意味着...
    从某种意义上说,詹姆斯·卡梅伦是一位有远见的人。
  4. +3
    21 March 2018 05:50
    我们都会死吗?
    1. +4
      21 March 2018 11:14
      更糟糕。
      选择 -
      或奴隶制
      或永久性的世界大战
      或严格控制。
      -
      无论如何我们都会死。
      但是我们中幸存下来的人会羡慕死者(“金银岛”)。
  5. +5
    21 March 2018 05:53
    我不了解文章的含义...要对AI小心点? 他们在上个世纪谈到了这一点。 AI“不堪重负”? 在计算机发明之后就很明显了。 我们需要发展这一领域吗? 因此所有国家都在尽快发展。
  6. +2
    21 March 2018 05:55
    需要一个AI模型吗? 请把周期表数字化,然后从数字化分子中编译出人类DNA分子,为其创建虚拟环境并获取Enter。 .DNA是放置眼睛形状和吮吸反射的程序。 对DNA进行数字化处理并以数字形式理解生活的算法之后,我们也许能够比其他人更进一步,为什么要绕过自然?
    1. 评论已删除。
    2. +6
      21 March 2018 14:10
      Quote:aybolyt678
      需要一个AI模型吗? 请把周期表数字化,然后从数字化分子中编译出人类DNA分子,为其创建虚拟环境并获取Enter。

      那些试图谈论他们不理解的过程的人总是感到惊讶。 当然,有时候偶然删除的短语“ dilettante”会导致专家解决问题,但是“ dilettante”本人将无法解决问题。
      您将计算机视为发生奇迹的黑匣子,然后按Enter键,这是您面前一个奇妙的神圣世界。 而且没有奇迹,计算机只是根据程序设置的算法工作的快速计算器,它永远不会退一步。 AI简称为快速执行重复数据的常规操作。 量子计算机和神经网络都不会对此做出任何改变。
      1. 0
        22 March 2018 05:53
        Quote:E_V_N
        您将计算机看作是奇迹发挥作用的黑匣子

        您将DNA视为一个奇迹,实际上,它只是一种以分子序列编写的算法,这种程序只需要数字化
        1. +2
          22 March 2018 12:12
          Quote:aybolyt678
          您将DNA视为一个奇迹,实际上,它只是一种以分子序列编写的算法,这种程序只需要数字化

          DNA有什么奇妙的事情? DNA程序的优点是什么? 如果DNA分子中的原子仅仅是程序代码的一个单元,为什么还要数字化原子?
          总的来说,您期望通过对DNA进行数字化最终获得什么? 用人工智能抚养言语者? 因此这是行不通的,如果发生奇迹,您可以指望的最大可能就是获得一个“外壳”,在其中可以智能地定位智力。 一个孩子并非天生就有现成的智力,有很多这样的例子。 动物饲养的“ Mowgli”不会说话,对人类一无所知,也不知道如何,它本质上是人类壳中的野兽。 就像他们说的那样,牛顿的DNA似乎不是新的牛顿,“自然在于天才的后代”。
          非常抱歉,但从字面上看,您的推理没有任何实际意义。
          1. 0
            22 March 2018 14:54
            Quote:E_V_N
            因此,很抱歉,但是您的推理没有任何实际意义,

            感谢您的详细回答,但让我问一个问题,您喜欢有限的人吗? 如果没有,请尝试从更广阔的角度看待数字化DNA的可能性...
            1. +1
              22 March 2018 20:06
              数字化DNA,下一步是什么? 来自4-ric系统的信息已传递给二进制系统。 认知活动是仅显示静态图片的过程。 在当今技术中,与我们的大脑相似的处理器等效于3,5 Jupiter硅处理器。 谈论AI会太早杀死我们。 我们刚刚谈到了人工智能,它是程序员天才的产物。 AI严格按照程序的“智能”来操作。 即使通过自编程生成计算图,人工智能也不会成为人工智能(IR),未来处理器的位容量要比最先进的超级计算机高100倍,这根本是不够的。
              1. +1
                22 March 2018 21:24
                第一个计算器也占用了大量空间。 另一件事是所谓的智能,我们已经称呼自大的富人-精英,缺乏免疫反应-宽容,也许您不应该用一个聪明的词来调用程序,而是想出另一个名词?
                1. +1
                  22 March 2018 22:49
                  Quote:aybolyt678
                  也许您不应该将程序称为一个明智的词,而是想出一个不同的术语?

                  同意你的意见
              2. +1
                22 March 2018 22:48
                Quote:r4space
                即使通过自编程生成计算图,人工智能也不会成为人工智能(IR),未来的处理器容量要比最先进的超级计算机大100倍,这还不够。

                我同意AI永远不会成为IR,但这不是因为计算机的位大小或低功耗。 人类的智力是由甚至在理论上都无法在“机器”中复制的过程决定和发展的;这是对生命的斗争,对死亡的恐惧,对获取各种食物的需求。 离开一个人一个星期没有水,他会死,然后你甚至给他装满水,他也不会复活。 另一件事是一台机器(计算机),关闭电源,似乎已经死了,打开电源,它又复活了。 在汽车中,容易损坏的零件很容易更换,直到“大脑”(信息存储)为止。 从理论上讲,一个人可以更改一些备件,但是大脑本身,即人格的载体,无法被替换,大脑也在老化。 而“杜尔教授的头”只不过是一个白日梦,一个永恒的梦想。 而且,可以通过对DNA进行数字化而获得的身体不过是一个壳体,“安装工具”在情报领域并不是特别重要。 他是最近去世的霍金教授的生动例子,实际上他并没有从“附属”中发挥作用,但是他成为了一名杰出的科学家。
                总结一下。 一个人害怕(无论他说什么)死亡,为生命而战,这会产生并发展智力。 从定义上说,计算机是不朽的,它没有什么可为之奋斗的,因此它的智能无法发展。
                1. +3
                  23 March 2018 07:39
                  Quote:E_V_N
                  总结一下。 一个人害怕(无论他说什么)死亡,为生命而战,这会产生并发展智力。 从定义上说,计算机是不朽的,它没有什么可为之奋斗的,因此它的智能无法发展。

                  这不是真的。 这也可以通过编程建模。 最简单的示例:使用遗传算法进行优化。 效率是惊人的。 对相同的自然选择进行建模。 继承,变异,选择和交叉。 为生存和将遗传密码传给继承人的权利而进行的同样斗争。 同样,结果的不可预测性和不可能解释为什么获得此特定最终结果的可能性。
                  1. +1
                    23 March 2018 17:42
                    Quote:Cube123
                    这不是真的。 这也可以通过编程建模。 最简单的示例:使用遗传算法进行优化。 效率是惊人的。 对相同的自然选择进行建模。 继承,变异,选择和交叉。 为生存和将遗传密码传给继承人的权利而进行的同样斗争。 同样,结果的不可预测性和不可能解释为什么获得此特定最终结果的可能性。

                    我完全误会了你。 您建议采用哪种遗传算法来优化人类? 那么自然选择,突变,继承与之有什么关系呢? 生命斗争和遗传密码的转让与之有什么关系? 人们现在没有这种权利吗?人们将与谁为权利而斗争? 如果结果不可预测,那么开始DNA优化的意义何在? 另外,我说并确认,人体是一个壳,而人体的占有并不能提供智力的存在,例如“ Mowgli”和“ downs”的诞生。
                    模拟生命斗争当然是现实的现实,但是人工智能(智能)与它有何关系呢? 如果有人只是在计算机上编写程序,那么计算机就不会有“独立性”,也就是说,其中没有智能,根本就没有问题。 我们得出的结论是,不可能创建AI或IR。
                    1. 0
                      23 March 2018 18:52
                      阅读基础知识:遗传算法
                      https://ru.wikipedia.org/wiki/Генетический_алгори
                      TM
                      如果您之后认为很好,您将理解问题的答案。 关键是人们不会编写此算法,而是由计算机本身编写的。 而且,该人本人也无法理解算法的结果。 这与进化带来的智力的出现有何不同?
            2. +1
              22 March 2018 22:15
              Quote:aybolyt678
              感谢您的详细回答,但让我问一个问题,您喜欢有限的人吗? 如果没有,请尝试从更广阔的角度看待数字化DNA的可能性...

              您可能会感到惊讶,但是我什至爱有机的人(我的妻子和孩子))))
              所以你自己告诉我,你想通过数字化DNA获得什么? 您在上面说过,这就是您期望创建AI的方式。 我确信这是不可能的,好吧,DNA中没有关于智力或意识的数据,只有关于骨头,肉,皮肤和眼睛颜色的数据。
              1. 0
                23 March 2018 19:59
                Quote:E_V_N
                好吧,DNA中没有关于智力或意识的数据,只有关于骨头,肉以及皮肤和眼睛颜色的数据。

                但是无条件反射又如何呢? 来自上帝? 我们可以找他,找到他,说话吗? 甚至试管克隆也有吸吮反射。 机械作用被编程到DNA中。
                DNA数字化是模拟肿瘤学,微生物学过程的能力。 通过选择多年积累的知识,可以立即建立观测模型。 为了减少信息量,请使用诸如存档之类的方法。 无需虚拟地复制大量相同的过程,只需将相同的索引图像分配给相同的过程即可。
                笑 不要局限于有机食品的人,要爱香肠形式的有机猪
                人工智能是一个牵强附会的问题,应充分考虑到普京。 与飞行反应堆一样重要-Avtovaz型号的自动变速器和出色的防腐剂。
  7. +2
    21 March 2018 05:59
    与第一个文明相比,我们正在失败;在我们看来,我们正在前进,但实际上我们正在离开;没有任何以废金属的形式留下“垃圾”的古老文明并没有破坏环境,并且已经有创造者制定的“上帝的诫命”程序,但我们自己朝着另一个方向发展,因此我们拥有所拥有的,这是我的愿景。
    1. +1
      21 March 2018 12:19
      是的,就像那个笑话一样:
      两个尼安德特人在说话。 一个到另一个:
      -看,我们只吃天然食物,我们的身体活动堪称典范,生态状况是原始的,没有化学药品,辐射,转基因生物。 所以?
      - 所以
      -我什至无法理解如此健康的生活方式,没有人能活到30岁...
      笑
  8. +15
    21 March 2018 06:00
    一般来说,本文所说的不是AI,而是所谓的“弱” AI(即一组程序) 模仿 情报)。 在创建“强大”的AI之前,我们还需要走多远……目前,人们尚不清楚如何完成此任务。 请求
    1. +4
      21 March 2018 14:19
      Quote:glk63
      一般来说,本文所说的不是AI,而是所谓的“弱” AI(即一组程序) 模仿 情报)。 在创建“强大”的AI之前,我们还需要走多远……目前,人们尚不清楚如何完成此任务。 请求

      这里几乎是唯一能胜任的评论。 人类不会很快理解甚至根本不理解人类智力是如何在原始的人类感官(视觉,听觉,嗅觉和触觉)的基础上出现和发展的。 以及为什么在父母喂养,加热和洗涤孩子的情况下甚至发展呢,实际上,他们创造了温室条件。 为什么在相同条件下,有些人天生是“天才”,而另一些人是“天才”。
  9. +5
    21 March 2018 06:02
    谁能告诉您在哪里可以找到Sarah和John Conor。
    1. +2
      21 March 2018 07:32
      雪松知道,看看下面,他走得更远,他决定打电话给撒旦。 笑
      1. +2
        21 March 2018 08:09
        斯坦尼斯拉夫·莱姆(Stanislav Lem)褪色 笑
  10. +4
    21 March 2018 06:03
    世界的大师们是一个如此混乱的概念,我无法忍受任何阴谋论的精神。
    实际上,这些“主人”仅仅是由一小撮超级富豪和政客为自己的利益行事的结果。 同时,这些超级富翁不能是从事实时世界管理的任何统一组织(后台)。 例。 罗斯柴尔德家族在任何情况下都不能同意洛克菲勒家族的意见,而要定期加入战术同盟和谈判影响区。 但是不断地互相伤害任何可能的伤害。 同样,在这些真正的家族中,人们一直在为争取影响力而斗争。
  11. +2
    21 March 2018 06:10
    这就是意识流!关于AI,关于交警,关于有女演员和联合管理人员的演员,关于总统,关于面具以及关于.....总之,关于世界的一切! 看起来像是广告!
    关于车! 作者可能不知道汽车销售合同是用简单的书面形式拟定的,不需要强制性的公证。 而且这个问题可以在不涉及AI的情况下解决! 如果您需要AI,那么.......
    1. 0
      21 March 2018 08:48
      欢迎您! 在法庭上证明它
      1. +2
        21 March 2018 11:08
        法院是一堆罪犯,为金钱做出任何非法决定。 法官不需要证据!
      2. 0
        21 March 2018 14:24
        Quote:卢克
        欢迎您! 在法庭上证明它

        根据法律,法院是当事各方在平等斗争中证明真相的最高权力机构。 但是实际上,人为因素介入了,人们寻求一种简单的解决方案来支持强者而非真理。 这就是一个人的工作方式。
      3. 0
        21 March 2018 14:32
        你是什​​么意思,证明一下? 你是律师吗 在我的实践中,法院一再接受作为证据,并以简单的文字为汽车销售合同的裁决奠定了基础!
  12. +2
    21 March 2018 06:39
    很长一段时间都没有威胁到我们 微笑 我们道路上的无人驾驶车辆将无法驾驶 笑 需要计算一下,是的,上帝禁止,PC出现时有多少次对话! 一切都不需要,一个人不需要通用计算机化,但是结果呢? 每个机柜中的结果都是一个补偿,但通常用于另一个游戏 wassat 为了比赛她的母亲! wassat 我们认为有可能减少行政部门的人数,但没有,那里的人数甚至更多... 眨眼 在军事技术领域,就可以在这里! 但不是在Demidov工厂 LOL
    1. +3
      21 March 2018 08:42
      Quote:锥子
      一切都不需要,一个人不需要通用计算机化,但是结果呢?

      AI必须坐在州长的椅子上-不会有腐败。 或者也许在杜马和法院!
      1. +2
        21 March 2018 09:41
        从小开始,我就梦想着科学院主席团将统治整个国家。
      2. +1
        21 March 2018 11:05
        杜马已经被称为“疯狂的打印机” ... wassat
        1. 0
          21 March 2018 22:40
          在我们的道路上,无人驾驶的卡玛斯和客车已经行驶。
  13. +2
    21 March 2018 06:42
    俄罗斯的第三个不幸绝不是AI! 一个新的不幸,这是analitiki和yksperdy ...
    ..傻瓜并导致碘缺乏...
  14. +3
    21 March 2018 06:51
    了解我们时代引入人工智能的重要性和风险
    为什么要谈论到月球多少钱。 要创建具有当今人脑功能的AI,可能需要数百平方米。 米广场在这个奇迹之下。
    1. 0
      21 March 2018 14:32
      Quote:rotmistr60
      为什么要谈论到月球多少钱。 要创建具有当今人脑功能的AI,可能需要数百平方米。 米广场在这个奇迹之下。

      您争论说毛孔虫如何看飞机,从树上剪下飞机模型,并希望该模型能够飞行。 您至少要使用网络中相互连接的计算机来覆盖整个地球,但这不适用于AI。 人与AI之间的差异是全球性的,对于AI而言,编写程序是根据他的工作原理而不会偏离任何地方,并且孩子从头开始发展,从卵子细胞发育而来,而没有嵌入程序的智力。
      1. 0
        21 March 2018 22:40
        阅读有关神经网络的信息,它们经过训练,未经编程
        1. +1
          22 March 2018 12:19
          Quote:BlackMokona
          阅读有关神经网络的信息,它们经过训练,未经编程

          您是神经网络专家吗? 您所说的“神经网络学习”的概念是什么意思,您创建了一个网络,并且它在没有程序和算法的情况下开始工作?
          神经网络的所有“训练”都归结为基础的普通索引和编目,以便根据外部请求快速搜索相关信息。 神经网络不会创建任何新的和独立的东西。
      2. 0
        22 March 2018 20:20
        人脑用图思考,处理器用图思考只有大脑中的图和处理器之间的差异是现代方法无法克服的。 神经元中的连接是现代处理器中称为大脑的生物处理器的图形,但这些图形存储在特殊的内存缓存中。 曲线图是触发处理器中的晶体管的电路。
  15. +7
    21 March 2018 06:56
    在俄罗斯,出现了两个麻烦,因为第三位涂鸦者博客作者想到了。 阅读了各种废话之后,他们开始撰写新的废话。 人工智能目前在技术上是不可能的。 现在,所有以人工智能为幌子做广告的都是普通的PR举动,一种不存在的产品的广告。 他们只是使用新的高级代码创建了功能强大的数据中心。 不相信我,与Google或爱丽丝聊天 wassat 但是这些公司拥有功能最强大的数据中心和许多程序员。
  16. +8
    21 March 2018 07:08
    “起初有道,道与神同在,道就是神!” 从反面...
    最后将有一个数字,该数字将与Satan一起使用,并且该数字将为Satan ... 666。

    1969年,撒旦教堂在美国自由州的州一级合法化...
    科学技术的进步导致了人类的道德和伦理退缩,这在最进步的国家,即现在的撒旦国家,撒谎和杀人已成为人类智慧存在的规范中,是非常明显的。 其有目的的降解并设定了用人工替代即替换的任务。 由造物主撒但的对手所创造。
    如果俄罗斯沿着撒旦国家通往AI的道路走得更远,然后到达可汗和人类。
    如果俄罗斯将道德和道德进步放在首位,即 创造真理,而不是谎言和幻想,那么人工智能将在人类地球文明的发展以及人类和人类进入宇宙的广阔领域中发挥有价值但可应用的价值,我们将拥有无限的时空,历史发展,无尽的前景,就像宇宙本身一样。 但是..为此,必须遵守神州设计,而不是AI。 俄罗斯人的智慧既有潜力,也有机遇。
    实现它们,是近期的紧迫任务。
    1. +7
      21 March 2018 07:30
      Ek,你很生气,我们能在没有撒但的召唤下做吗? 撒旦并不生活在计算机中;它对于他来说太小了,太原始了。
      1. +1
        21 March 2018 11:43
        撒旦不能被称为。 他已经存在于我们每个人中。 它以动物的直觉得到了体现,模仿了“有前途的人的实际愿望”:
        -对外国统治的渴望;
        -跨境大型私人资本的行动自由;
        -刺激消费;
        -刺激投资(从昂贵的强制性健康保险到流行的加密货币);
        -宣传一种节制,淡泊和浪费的生活方式;
        -研究对人类DNA的各种影响(并利用这种经验,这是众所周知的 什么谁的 目标)。
        -落后人民的“启蒙运动”,形式是种植外星人或畸形的社会形式。 使用1-2代的可能性管理结构非常方便(顺便说一下,在俄罗斯联邦,IG是相同的选择)。
        - 等
        --------------
        PS:顺便说一下,造物主的情况如何? 为什么都是他 ?
        显然这一个 秩序 -并且有合法,定制,针对性和均衡使用的来源 任何工具 从他的武器库。
      2. 0
        21 March 2018 20:39
        魔鬼在于细节
  17. +3
    21 March 2018 07:19
    在人类文明发展的初始阶段,人类可以选择:沿着深奥的发展道路前进......或者变成技术专家......也就是说,人类站在“岔路口”:1。提高他们的心理能力,体力,劳动生产率在人工助手,技术的帮助下,采取技术官僚的发展道路......或者:2。提高心理能力,体力等,在自己的“超级大国”中发展 - 思维和身体动作 - 深奥的pu 进化发展,其中的“小工具”是:心灵感应,心灵感应,洞察力,悬浮,
    在分子原子,生物能量水平上对有机物的影响(超级记忆,超级能量,超逻辑,对异常高温和低温的超级抵抗),“场”水平影响电子设备性能的能力,大脑的超级计算能力,超出光学的内部视觉范围。是否有任何神秘发展的先决条件? 也许......! 这可以解释古代文明的“误解”和“奇迹”,而不是“外星人”的平庸干预吗? 但是,人类文明发展的深奥方式被一种未知的,远非可解释的干预所打断......宗教服务的工具......自古以来,infa向我们传达了有关超自然能力的人如何被摧毁 - 所谓:女巫,巫师,“巫师“,魔术师...... P
    其结果是人类文明发展的技术官僚方式。 看来大自然试图“回归前者”:“靛蓝儿童”,例如; 但是在这里,现在,有很多模糊,无限......而现在是智人,而不是立即进行最复杂(但必要)的计算,计算和记忆所有这些在“心灵”中; 独立和容易治愈心血管,肿瘤和其他,现在可怕的疾病(是的,有愈合(!)...不允许它们出现!......),拥有再生;预见地震,海啸,而不是建立在危险的地方或时间离开他们的城市.....我必须尝试解决我的问题,保存自己,为自己提供人工助手的帮助:机制(电子设备),机器人,计算机,抗生素,电子邮件。
    zi ...就像无腿的拐杖一样“高效舒适”......
    1. +2
      21 March 2018 11:24
      一般来说,有人怀疑它根本不是宗教。 如果只是这个问题,即使处于完全未开发的状态,能力本身也会保留。 但不存在这样的事情。 寻找。 固执地,不看禁令,投入巨额资金。 什么都没发生。 每个人都在寻找,GPU,希特勒和中央情报局......一切。
      那么,物理学,当它仍然是一门科学,并没有成为我们发展的制约因素时说,为了在我们的世界中存在魔法,我们需要一个与普朗克常数略有不同的含义。 目前的神奇操作根本无法启动。 对不起
      你可以尝试(并尝试)使用主要具有心理力量的阴谋,即影响心灵的阴谋。 而在魔术本身走向现代物理条件的道路根本不可能。 为什么这样,还有什么吗? 没有人知道。
      1. +1
        21 March 2018 11:40
        Quote:米哈伊尔3
        如果只是这个问题,即使处于完全未开发的状态,能力本身也会保留。

        如果这些“能力”的载体被彻底摧毁,那么“能力”怎么能保持下去呢? 请求
        Quote:米哈伊尔3
        那么,物理学,当它仍然是一门科学,并没有成为我们发展的制约因素时说,为了在我们的世界中存在魔法,我们需要一个与普朗克常数略有不同的含义。 目前的神奇操作根本无法启动。 对不起

        而且我不会说我的观点是真的! 在这种情况下,我只表达了对人类发展可能性,人类文明......的另一种观点(这不是我的“财产”......)。 hi
        1. +1
          21 March 2018 11:45
          在俄罗斯,有人在火刑柱上烧伤? 哦,好吧 在非洲? 在西藏? 请原谅我,但在同一个非洲,从远古时代开始,巫师分为恶意和有用,没有人触及任何有用的人(他们寻找恶意的,有专业 - 猎人的猎人)。
          有很多领土没有人在“能力”的基础上摧毁了人。 但这些能力却没有。 当然可以。 只有心理战斗(非洲人可以做得很好)和一些化学和生理学知识。
          为了发展某些东西,你需要有一些东西要发展。 根据调整理论,您可以控制任何响应至少一个影响的系统。 无论它如何回应,事实本身都很重要。 根本没有答案,没有什么可以发展的。
          1. +1
            21 March 2018 13:24
            我必须再次重申:
            Quote:米哈伊尔3
            在这种情况下,我只表达了另一种观点(这不是我的“财产”......)

            你错了,确信在俄罗斯(在俄罗斯)没有人被焚烧......被社区集会的决定烧毁了;虽然这些案件并不大,而且关于“非洲裔藏人”的巫师...... “sptsilizatsiya”? “确定意识”......“最终证明了手段的合理性”......文明的大规模,加速发展......人类的智力潜能创造了需求,形成了解决它们的动力! 发展越大,相关“领域”的需求就越“大规模”......这种质量的激励越强大。 非洲许多地区在发展过程中冻结了什么样的“激励和需求”? 顺便说一句,文明发展的深奥方式并没有提供革命性的“飞跃”;所有的发展(以及“超级大国”)都是在进化中发生的......在很长一段时间内(数百年,数千年......也许数万年......)
            1. 0
              21 March 2018 15:50
              你,因为它让你自己陶醉......是的,我记得! Orybenie! Stanislav Lem的主题非常适合您的推理。 在那里,他有一种文明的变体,对灌溉产生了兴趣。 他们建造了越来越多的通道,直到地球开始耗尽。 运河不断建设的基础设施是,一切都在经营,订单紧迫,奖金正在支付......然后引入救援的想法。
              他们说我们继续通道,继续生活在水中。 人们开始花时间在水中,游行欢乐,声称鳃已经开始生长。 不会开始。 你可以开始宣传,你可以告诉对方昨天koldanul有多么强大,你可以把Merlin搂在一起,你可以做很多事情。 这只是不会发生的魔力。
              没有其他的发展方式,因为无论脉轮多么紧张,荒地上的麦田都不会出现,而且卷也不会从空气中流出。 在我们这个星球上和谐安排的非技术文明版本,甚至不是一个。 海豚和猴子。
  18. +2
    21 March 2018 07:53
    我记得苏维埃时代的电影《宇宙中的少年》 ...在这部电影中,提出了类似的话题
  19. +2
    21 March 2018 07:56
    如果您自己的智力还不够,可以参考ARTIFICIAL。 或在监督之前向他们报告(!!)。 “系统有效-人们认为。” 人是创造者。 机器人是一块铁。 毕竟,“上帝上帝”以“ HIS的形象和肖像”创造了人。 但是他不是宇宙的主要创造者吗? 相信上帝-但不要自己做。 让我们把“人工智能”的“ bravura报告”留给国防预算锯木制造商的负责人。 破坏不是建立。 武器应尽可能为简单(!!!)。 还有那里的“太复杂”武器及其反武器-EW,REP等。 DOUBIN应该是SIMPLE和DEADLINE。 或者,如CLASSICIANS所说:“我会轻柔地跳动,但会受伤!”。
    莫雷夫
  20. 0
    21 March 2018 07:57
    什么样的人工智能将取决于他们的创造者的道德,或者更确切地说是那些将为其提供资金的人。 不幸的是,钱集中在不道德的人身上......
    但是,由于AI的优势竞赛已经开始,我们不能忽视这一点。
  21. +5
    21 March 2018 08:50
    作者从习惯于征服和破坏一切的人的角度评估AI。 但是没有人想知道,人工智能为什么要摧毁人类? 是的,人们一直在努力消灭自己的同类,狼也杀死兔子。 人工智能也会摧毁他们吗? 为了行动,人工智能必须具有最终的逻辑目标。 好吧,他摧毁了人类,然后呢? 他会开始种兔子和种树吗? 也许垃圾会被清除? 他为什么要这样? 因此,我完全看不到人工智能对人类的任何威胁。 根据定义,这不是一个人。
    1. +4
      21 March 2018 09:26
      Quote:工程师
      因此,我在人工智能中根本看不到对人类的任何威胁。 从定义上讲它不是人类。


      没有完全可靠的程序。 因此,即使最初并未设想这种危害,也可能由于硬件或软件故障而引起危害。
    2. +1
      21 March 2018 09:37
      分析人类和计算机游戏的历史就足以了解人们对于AI来说是致命的,因此有必要根据他们自己的模板与他们一起行动-破坏多余的东西并完全控制必需的剩余东西。
  22. +19
    21 March 2018 09:12
    我听说过
    俄罗斯有2种麻烦:傻瓜和道路。
    出现第三个麻烦:傻瓜指出走哪条路 笑
  23. +3
    21 March 2018 09:36
    我为作者鼓掌! 大胆且经过验证的尝试,展望不久的将来。 在阅读本文时,我想到了一个稍有不同的危险,作者在普京引用的遗言中轻轻地勾勒出该危险:
    谁将成为这一领域的领导者将成为世界的主人

    那些。 有人肯定会认为自己最狡猾-创建最强大的AI并亲自成为他的导师和导师,以便AI完全按照他的利益行事,使用诸如``NLP for AI''(对不起俗语)之类的东西,操纵最复杂的AI。 这不是骄傲的精髓吗? 这对超级富有的超人来说不是一个值得的奖赏:“这样我才能成为海洋的情妇,住在我的海边,鱼本身就为我服务,并且就在我的房屋内。” 并进一步完善。 但是不仅对于“超人”,而且对于整个“超人”。 当然,这不会影响汤加或新西伯利亚群岛,但会影响其他国家……总的来说,我们绝不能将蒸汽机车和火炉交出废料-我们仍然需要它们。
    顺便说一下,美国有4艘战舰正在保护中-没有任何人工智能。
    1. 0
      21 March 2018 15:07
      Quote:帆船
      创建一个强大的AI并亲自成为他的专家和指导者,以便AI完全按照他的利益行事,使用诸如“ NLP for AI”(对不起俗语)之类的东西,操纵复杂的AI。

      微软巨人比尔·盖茨(Bill Gates)曾经是地球上最富有的人……那又如何呢? 从技术和财务上讲,单独创建一个AI程序是不可能的。 为了使AI程序能够``征服''世界,它必须具有一定的应用性,至少在理论上对全人类有用。 创建一个知识分子怪兽来解决“送坑”问题看起来很荒谬。
      1. +1
        21 March 2018 17:20
        很长时间以来,人工智能并没有做太多事情。 无法将学习到的智力提高到高于小学三年级的水平-硬件能力不足。 至于超级计算机,它们的编程时间提前了几个月,从核爆炸模型到长期天气预报,它们都是数不胜数的,但超级计算机不是人工智能。 人工智能在某些行业中的成功(例如,出现了将人工智能训练到高水平结果的算法),例如人脸识别,使这一话题重新回到了普遍且相关的话题。 盖茨做过AI吗? 对于有钱的人来说这看起来很有趣吗
        Quote:E_V_N
        至少在理论上有用 为全人类
        ?
        1. 0
          21 March 2018 22:28
          Quote:帆船
          但是supercomp不是AI。 人工智能在某些行业中的成功(例如,出现了将人工智能训练到高水平结果的算法),例如人脸识别,使这一话题重新回到了普遍且相关的话题。

          您说一台超级计算机不是AI,立即写出AI在人脸识别“行业”中的成功经验。 一分钟之内,孩子什么也没有将父母与其他人区分开来,就智力而言,这时的孩子仍然是“一块肉”。
          实际上,您和刺猬都为取得的成就感到高兴,并称其为每月的婴儿和温血动物也提供了突破性的AI行动。
          1. 0
            22 March 2018 00:18
            如果没有洛克菲勒队员,比尔盖茨甚至无法迈出一步。
  24. +5
    21 March 2018 09:51
    AI用于预测
    这不完全准确。 或者更好地说,不是那么重要。 人工智能正在做的所有事情都可以完成,这已经做了很长时间。 对于作者描述的一项任务,AI基本上是完全没有必要的,有完全无脑,但超级强大的硬件和软件系统可以更好地解决这些问题。
    那有什么用呢? 一切都很简单。 现在这个星球上的力量属于“卡丹运动鞋中的村庄乡下人”。 这是权力饥渴,但非常愚蠢的个人。 并咨询聪明的人,使用科学,分析中心和其他拐杖在以前的时代制造的工具,当统治者更聪明,他们不能。 原因很简单。 他们无法掌握科学家和分析师告诉他们的内容。 这就是世界国家的秘密。
    这是人工智能发挥作用的地方。 他能够向现代当局解释。 也就是说,对于那些无法更改文件名的人,并将其传达给其他人。 而这些人并不认为人工智能是对手,他没有参与这个难以理解的铁盒子,而且在权力斗争中没有参与(他们认为)。 但你可以通过声音问他,他会选择当局理解的答案。
    这就是普京的想法,警告这个巨大的危险。 直到现在,现代世界的无限愚蠢的统治者都试图避免采取非常极端的步骤,因为他们知道他们真的不明白他们在做什么样的天使。 但现在一切都在过去! 他们有聪明的顾问! 这些顾问已经支付了巨额资金;他们是科学的最后一句话,不会用他们不理解的词汇和其他所有困难来折磨统治者,就像这些讨厌的科学家一样。 他们,这些人工智能,是“公正的”! 等等!
    世界开始在人工智能的直接控制下移动。 这真是太可怕了。
    1. 0
      21 March 2018 10:31
      Quote:米哈伊尔3
      世界开始在人工智能的直接控制下移动。 这真是太可怕了。

      少看好莱坞小说。 世界永远是阴阳。 邪恶总是在短期内击败好,但它总是在很长时间内发挥作用。 最后一句话总是保持良好状态。
      1. +5
        21 March 2018 10:43
        你看,你也会看起来更少,并且故事)AI不好而不邪恶,这些概念不适用于它们。 而“自我意识”以及其他童话故事根本就不那么有趣。 一个老笑话很好地描述了这种情况。
        “一个人正在沙漠中行走,突然他看到灌木丛上有一张纸条 - 在这里挖!五米下来,宝藏被埋在这里!我抓起一把铲子开始挖掘。在坑底我发现了一张纸条 - 现在向西挖了三米。南边七米。好几次。最后一张纸条读了 - 现在试着出去......
        AI如何解决控制问题? 他们将根据嵌套算法执行此操作。 他们决定的结果是什么?这里的问题非常有趣。 AI不会也不会有任何感受。 没有附件或任何使某人成为一个人的东西。
        因此,在决策的下一阶段,可能会做出决定,例如同时摧毁数百万人。 这不是一个建议。 在许多选项中,AI甚至可能不警告用户他的行为的后果之一将是这样的。
        设定任务和跟踪AIs做出决策的方法需要花费大量的“人力”。 实际上,有必要观察AI的工作几十年并不断调整它,然后才能赋予它管理功能。 谁将以及如何在今天的世界中做到这一点? 你了解自己 - 根本没有人。 设法建立起来的公司应该立即出售这个“东西”! 尽快,虽然有超过支付公共费用! 那些将使用的人 - 那些仍然是专家,啊哈。 他们现在需要结果,而不是经过十年的测试操作。 好吧等等
        1. 0
          21 March 2018 11:25
          Quote:米哈伊尔3
          因此,在决策的下一阶段,可以做出决定,例如,关于数百万人的相关破坏。

          事实上,“金十亿”应留在地球上,一些“知识分子”在没有任何机器的情况下思考。
          有一件事是肯定的,我们所有的恐惧症都会以某种方式反映在人工智能中。 从上面确定了一个限制 - 通过道德给予人们知识。 只要野蛮人统治地球,人工智能将无法摧毁人类,根本没有必要对善良的人这样做。
          1. +2
            21 March 2018 11:35
            该死。 怎么说比较容易? AI从现在控制人类的鲣鸟中移除块。 与此同时,如果有真正的人工智能,或者只是有一个好的软件包允许所有这些愚蠢的统治者与自己进行通信,这甚至都不重要。
            摧毁人类的手段,现在有很多。 几乎每个大国都有能够以强大力量击败其他国家的东西。 到目前为止,我们只是因为所有这些统治者都害怕他们的权力,或多或少地了解他们真正的智力水平而得救。 人工智能将消除这种恐惧!
            这根本不是善恶,恐惧和其他事情的问题。 如果一个权力爱好者提供了一种增加力量的方法,无论做出什么牺牲,他肯定会同意,它来自它的本质。
            1. 0
              21 March 2018 12:15
              Quote:米哈伊尔3
              如果一个渴望权力的人有办法增加他的力量......他肯定会同意......

              真正统治世界的人永远不会给任何人带来优势。 只有通过对抗矛盾和恐惧才能统治世界。

              1. 0
                21 March 2018 12:59
                是。 因此,战斗的可能性很大。
                1. 0
                  21 March 2018 13:59
                  Quote:米哈伊尔3
                  是。 因此,战斗的可能性很大。

                  只要他们不确定他们的完全安全,他们就不会允许全面毁灭人类的全球战争爆发。
                  顺便说一下。 “微型”核发动机是他们为了平衡力量和作为副作用而被迫“礼物” - 人类获得无限能源。 甲壳结束了。
            2. 0
              21 March 2018 15:50
              Quote:米哈伊尔3
              如果向渴望动力的人提供提高动力的方法,那么不管受害者是什么,他都一定会同意,这源于它的本质。

              好吧,这里您已经走得太远了。 如果最终决定是由一个人,即使是一个愚蠢的人,他也将尽力避免受害者,“不可杀人”的禁忌不会随处可见。 但是,一个平淡无奇的人的平庸懒惰却可以开玩笑。 收到100条AI技巧后,阅读并同意……他很可能会同意101条建议而无需阅读,但只有上帝知道此建议中的内容。
              PS。 经常不得不听这样的话
              -“计算机给我写了一些东西(或者不是用俄语写的),现在我按了一些键不起作用”。
              -“我写了什么,我按了什么键”,
              -“我没有读过我不记得的新闻”
    2. +2
      21 March 2018 15:33
      Quote:米哈伊尔3
      世界开始在人工智能的直接控制下移动。 这真是太可怕了。

      AI尚未出现,并且在可预见的将来,它的外观也无法预期,您自己可以用手指解释。 称AI可以理解为“愚蠢”的普通真理的“解释者”当然不是。
      危险和恐惧的问题完全不同,谁会将这些“共同的真理”放入一个名为“ AI”的程序的知识库中,这就是操纵“掌权者”意识的巨大空间。 因为他们凭借自己的智慧,对AI建议持批评态度,因此将无法做到。 在这里,您可以称斯大林为“暴君”,希特勒为“从暴政中解放人类的战士”,俄罗斯为“邪恶帝国”,美国为“真实民主的榜样”,如果大多数“情报分子”已经在酝酿中,则很容易猜到。专门来自维基百科的知识。
      1. +1
        21 March 2018 15:56
        是啊。 你开始明白了。 这很好。 这是它的方式! 而普京,实际上是所有这群愚蠢人中唯一的聪明人,开始警告 - 危险! 显然希望在所有这些默克尔和特朗普的小脑袋中播下对所有这些“顾问”和“帮助者”的有益的不信任。 我希望他们听他的话......
        1. 0
          21 March 2018 22:36
          Quote:米哈伊尔3
          是的 您开始了解。 很好。

          我没有开始理解,我知道这一点,因为它与教育和工作中的这些问题有关)。 我对这样的业余文章感到非常沮丧。
          我怀疑VVP能否完全理解问题,而在我看来,VVP却害怕一个热衷于小工具的同事。
          1. 0
            22 March 2018 14:21
            教育“先进用户”导致了整整一代智力活动减少的人的教育。 有时活动减少到零。 当然,这不是关于你的,而是关于这种情况。 但合格的用户仍然存在。 所以我试着代表他推理。 我做调试。
            为了取得成功,完全没有必要了解某些小工具的生产主题。 相反,它经常伤害和干扰。 为了运行系统及其可靠的操作,有必要研究界面 - 系统与现实的相互作用。 作者和系统制造商手头没有现实,beta测试根本没有保存。 那是你一直吹到专业细节......
            1. 0
              22 March 2018 22:59
              Quote:米哈伊尔3
              因此,您总是不停地寻求专业细节...

              好吧,首先,我们正在讨论AI的狭义专业问题。
              其次,我试图摆脱专业术语,并使用日常示例进行解释,即“系统与现实”的相互作用。 对不起,我做得不好。
    3. +3
      21 March 2018 22:51
      人类尚不知道什么是AI。 首先,人工智能是一种分析物理事件的方法。 只要不选择系统基准进行分析,该方法就绝对是中立的。 一个人甚至不知道自己的大脑不仅会产生并传播电磁脉冲,他还会通过执行这些脉冲来分析潜意识和意识的任务。 这项工作建立在与数学相当的某些技术之上。 但是!人类仍然不了解基本的东西,有数字的功能,或者说两个根本不同的数字功能更容易。 因此,大脑准确地根据的不是计算过程,而是分布数学方法。 可以从字面意义上构造数字的事实是不可分割的数学空间,这意味着可以分配磁性相互作用的空间,其中是系统的数量,代码和基础,一个人拥有复杂的感知系统并不白费,这允许一个人提供自己的感知通过分析与意识和潜意识指导有关的情况和事件来获得活力。 因此,在一个人接受分析数学知识之前,他不必谈论AI。 在二进制逻辑上,开发AI甚至更加不可能。
      1. +6
        21 March 2018 22:55
        Quote:gridasov
        在二进制逻辑上,开发AI越不可能

        您可以使用多少? 眨眼
        1. +1
          21 March 2018 23:06
          引用:Golovan杰克
          Quote:gridasov
          在二进制逻辑上,开发AI越不可能

          您可以使用多少? 眨眼

          不能说!.....我无法抗拒.... 笑
          1. +6
            21 March 2018 23:08
            Quote:XXXIII
            你不能说同样的话!...我无法抗拒...

            是的,好...
            人们有10种类型:了解二进制逻辑的人和不了解二进制逻辑的人 笑
            1. +1
              22 March 2018 03:38
              引用:Golovan杰克
              人们有10种类型:了解二进制逻辑的人和不了解二进制逻辑的人 笑

              那些。 这样的东西?
              00-不明白。
              01-了解。
              10-了解他不了解。
              Uff,通常感到困惑-这是一个三重逻辑。 那么AI可能存在吗? 笑
        2. +1
          21 March 2018 23:35
          建立在自然数列上的逻辑。 人类错误地认为数字是幻想,创造力或知识发展的产物。 自然数列的数字描述了基本的几何图形-CUB,但该立方体适合并由一个球描述。 因此,有必要不考虑柏拉图固体,而是考虑与立方体相同的空间物体,并进一步考虑nat.ryad的参数。 此外,您可以通过一个立方体来构建一个晶体管,在该晶体管中,电磁脉冲可以直接转换为数字,反之亦然可以转换为数字以表示脉冲。
          现代数学通过计算in的最后一个数字来考虑将infinity与infinite关联。 数字序列。 但是,任何数学序列都不能由一系列数字表示,而可以由空间系统和结构中的数字表示,然后,通过对这些数字算法进行逆变换的过程,可以表示任何无限系列的数字。 如果更简单,那就是Mobius条形或一瓶Klein。 但是有些基本数字我不会讲。 也就是说,对于任何无限的数字序列,都有一个真实系统的对应关系,该系统同时具有几何图形的图像和以算法关系构造的数字系统。
      2. +1
        21 March 2018 23:13
        Quote:gridasov
        因此,在一个人接受分析数学知识之前,他不必谈论AI。 在二进制逻辑上,开发AI甚至更加不可能。

        一般而言,数学尤其是分析数学不是自然现象;它们只是对某些自然过程的描述的公认“语言”。 好吧,这是一种有树干的动物,在俄语中这是一头大象,在德国大象中,名字似乎有所不同,但动物是相同的,但是从不同的角度来说,它的性质不会改变。
        智力是一种自然现象,不可能通过定义进行数学计算来重复。 就像飞机一样,即使它们都飞行,它也永远不会变成鸟。 此外,请注意,飞机的飞行原理完全不同,尽管通过数学方法进行了描述,但仍不可能重复鸟的飞行,这非常复杂。
        人工智能永远不等于人类的智力,这就是为什么它被称为“人工”
        1. +1
          22 March 2018 00:33
          不知何故,在废纸,约83,在学校,我找到了62年的“运动年鉴”。 所以它描述了一个人在82年之后如何成为20,也就是说,他画了一幅近似的肖像。 薄薄的白皮肤,手臂很细,他会为电脑工作。 预测成真,尽管是迟来的。 总的来说,我反对AI。男人冒着成为液化大脑的消费者牛的危险。 AI不允许痴呆者利用它们。 他们不会喜欢它。
        2. +1
          22 March 2018 01:19
          在处理无限大数据的系统中,即作为技术工具包,它能够使用Number,因此有一个概念和一个功能作为分析。 我想您知道,分析不能独立进行,需要选定的准则,因此这些准则本身也应该是方法论和系统本身的一部分。 我应该通知说,谈论不是以数字为符号,而是关于新的定性性质中的数字。 因此,与大象的比较是不正确的。
          1. 0
            22 March 2018 12:47
            Quote:gridasov
            我想您知道,分析不能独立进行,需要选定的准则,因此这些准则本身也应该是方法论和系统本身的一部分。 我应该通知说,谈论不是以数字为符号,而是关于新的定性性质中的数字。 因此,与大象的比较是不正确的。

            因此,您自己已经了解到标准(准则)对于分析是必需的,这些准则应成为方法(算法)和系统(程序)本身的一部分。 数字不能是符号以外的任何东西,您可能已经想到了用数字或数字序列描述的“值”。
            为什么与大象的比较不正确?在这个例子中,我想澄清一下大象是一种现象,这个词是对这种现象的描述,尽管描述是用不同的词(数字,数字的行,函数,分析方法等)进行的,但现象的本质没有改变,但说明处理方法会有所不同。
            1. +1
              22 March 2018 13:20
              我只是注意到,如果给数字赋予新功能,即恒定值函数,那么数字及其在数学空间中的位置将确定其绝对精确的位置,因为它已成为数字算法的一部分。 以其独特而独特的结构。 但是,数字序列已经获得了一个新功能,即这些算法构造发展方向的向量。 但! 出现一个新功能,用数字表示。 这是定义一些基本物理参数的功能。
              我要说的是,使用一个数的常数值的函数并将一系列素数转换为数学空间将确定明显的定律。 通常,所有无限的数字序列都可以转换成这样的空间。
              有了这些,数学家就只能使用数字相互作用的定量参数,这取决于变量值。
              1. 0
                23 March 2018 01:18
                我看到了Gridasov-您掌握了理智。
              2. 0
                23 March 2018 18:08
                Quote:gridasov
                我要说的是,使用一个数的常数值的函数并将一系列素数转换为数学空间将确定明显的定律。 通常,所有无限的数字序列都可以转换成这样的空间。
                有了这些,数学家就只能使用数字相互作用的定量参数,这取决于变量值。

                我了解您要说的话,我不了解您在AI和IR(人工智能)的情况下在哪里行驶。
                1. +1
                  23 March 2018 18:38
                  不,您的理解不正确。 我没有试图向任何人证明任何东西。 该分析的事实在于,有必要考虑事件的各种可能变化的整体,而不是证据。 这是计算数学与分析数学或分布数学之间的根本区别。
                  1. 0
                    24 March 2018 20:37
                    Quote:gridasov
                    不,您的理解不正确。 我没有试图向任何人证明任何东西。 该分析的事实在于,有必要考虑事件的各种可能变化的整体,而不是证据。 这是计算数学与分析数学或分布数学之间的根本区别。

                    那么在讨论AI问题的背景下您将要去哪里呢? 您是否正在尝试数学(替代)人类智力?
                    1. +1
                      24 March 2018 21:55
                      你会读...吗? 我写过多少次相同的东西,即计算数学无法完整描述事件的所有种类及其发展方向,从而无法描述空间。 那么,您在说什么算错呢? 人工智能是大脑分析过去和现在的事件,以根据其兴趣和愿望为未来建模的能力的整个复杂集合。 因此,智能主要是一种调和我们准备好并能够感知的一切,并以此为基础进行分析的技术。 对于一个简单的人来说,这是一个适应特定环境和发展的平庸机器人。 另外,很难使一个人摆脱教条和在他脑海中形成的既定概念。 为此,当每个新生代更真实地能够感知现实时,存在着改变世代的过程。 人工智能是人类生活中与空气,水一样的基本必需品。 食物和其他一切。 因为采用现代计算机技术的一代人很快就从增强现实的状态过渡到了扭曲的现实的状态,这使其无法适应现实,也使其在现实环境中不可行。
                      1. 0
                        26 March 2018 23:58
                        Quote:gridasov
                        人工智能是人类生活中与空气,水一样的基本必需品。 食物和其他一切。 因为采用现代计算机技术的一代人很快就从增强现实的状态转变为扭曲的现实的状态,这使其无法适应现实,也使其在现实环境中不可行。

                        由此得出结论, 关于创造的可能性 为了将控制权转移给人类,AI可以与人类媲美或超越吗?
        3. 0
          22 March 2018 04:00
          Quote:E_V_N
          智力是一种自然现象,不可能通过定义进行数学计算来重复。

          您也单纯地理解了AI的概念。 熟悉现代方法可能很有意义。 我强烈推荐技术科学博士的书 阿列克谢·谢尔盖维奇·波塔波夫(Alexey Sergeevich Potapov)“人工智能与通用思维”。 相信我,有一些事情要考虑。 尽管该问题尚未解决,但是在解决问题的方法上,却在完全不同的知识领域中发现了许多发现。
          1. 0
            22 March 2018 12:56
            Quote:Cube123
            您过于简单地了解AI的概念。 熟悉现代方法可能很有意义。 我强烈推荐技术科学博士的书 阿列克谢·谢尔盖维奇·波塔波夫(Alexey Sergeevich Potapov)“人工智能与通用思维”。 相信我,有一些事情要考虑。 虽然问题尚未解决,但在解决方案的途中,在完全不同的知识领域中发现了许多发现。

            评论不是科学辩论的地方,因为我们不知道每个评论员讨论区域中的知识水平。 因此,注释是在“家庭”级别上编写的。
            我读了一本书。
            目前,尚未解决问题的事实是,解决方案处于理论阶段是有道理的,没有人证明这些理论是否正确。 此外,A.S。Potapov并没有说人类的智力将因其情感,感觉和恐惧症而重现。 即,对此存在争议。
            1. 0
              22 March 2018 13:36
              Quote:E_V_N
              此外,A.S。Potapov并没有说人类的智力将因其情感,感觉和恐惧症而重现。 即,对此存在争议。

              他将智能定义为解决复杂优化问题的能力。 这使您可以正式化任务。 如果我们将智力定义为“一个人的情绪,情感和恐惧症的智力”,那么这些概念必须首先形式化。 您无法优化无法测量的内容。 在这样的问题表述中,这绝对是研究的死胡同。 因此,这只是目标设定的问题。
              1. 0
                22 March 2018 23:14
                Quote:Cube123
                他将智能定义为解决复杂优化问题的能力。 这使您可以正式化任务。 如果我们将智力定义为“一个人的情绪,情感和恐惧症的智力”,那么这些概念必须首先形式化。 您无法优化无法测量的内容。 在这样的问题表述中,这绝对是研究的死胡同。 因此,这只是目标设定的问题。

                “复杂性”的概念也是无法衡量的,对于某人来说,钉锤很难,对于某人来修理汽车,对于某人来求解积分方程,对于其他人来说,这是“基本的”。
                智力的概念始终决定着一个人的智力,但是我们并不是说汽车具有智力。 因此,人工智能的概念意味着类似于人类的精神活动。 争论的焦点不是是否有可能重新建立解决使用机器的人解决的范围狭窄的问题的个体过程;而是要比较一个人和机器的才智,甚至是机器相对于人的优越性。 机器对人的“落后”意识以及对机器的破坏或奴役。
                基于争端的这些参数,我申明不可能建立类似于人类智能的机器智能。
                1. 0
                  23 March 2018 07:56
                  Quote:E_V_N
                  基于争端的这些参数,我申明不可能建立类似于人类智能的机器智能。

                  例如,以这种表述,这项任务对我而言似乎完全没有意义。 为什么要重复已经存在的东西? 人工智能涉及创造出比人类思维更好,更可靠或更安全地解决生活任务的工具。 从这个意义上讲,现代战斗机,无人机或航天器的自动驾驶仪可以与人竞争。 击败世界象棋冠军的程序已经比人类更好。
                  1. 0
                    23 March 2018 18:36
                    Quote:Cube123
                    例如,以这种表述,这项任务对我而言似乎完全没有意义。 为什么要重复已经存在的东西? 人工智能涉及创造出比人类思维更好,更可靠或更安全地解决生活任务的工具。 从这个意义上讲,现代战斗机,无人机或航天器的自动驾驶仪可以与人竞争。 击败世界象棋冠军的程序已经比人类更好。

                    好吧,为什么任务没有意义,意义却显而易见。 让一个人上班,您既不可靠地也不知道他的能力(智力)或道德素质(诚实,恐惧症,忠诚度),并且AI具有预先保证的参数。
                    可以预见的是,计算机被教导比人类更好地下棋,自动驾驶仪可靠地执行飞行参数的常规操作,这一事实是可以预见的,这是可以理解的。 这场辩论是关于娱乐和超越人类思想的优越性,这一点没有多多少少。
                2. 0
                  23 March 2018 09:15
                  Quote:E_V_N
                  争论的焦点不是是否有可能重新建立解决使用机器的人解决的范围狭窄的问题的个体过程;而是要比较一个人和机器的才智,甚至是机器相对于人的优越性。

                  尤金,我决定加点。 我认为您对AI的定义是有缺陷的。 如果您在谈论比较,则始终有必要确定比较标准,否则将毫无意义。

                  在我看来,您说的是对的话,但用错的话 感觉

                  实际上,这个问题是由上司-下属关系来描述的。 “老板”设置了特定的任务,“下属”解决了它。 从“下属”到解决所需的情报,不是吗? 现在,只需要AI学习如何很好地解决“老板”带来的问题。 还有问题
                  Quote:E_V_N
                  机器对人的“落后”意识以及机器对人的破坏或奴役。

                  当AI学习解决问题的能力如此之好,以至于它将取代``老板''(如果曾经发生) 微笑) 那些。 他本人将开始设定任务并确定执行任务的优先级。 实际上,当解决一个问题提出需要执行新任务时,问题只会减少到是否存在反馈。 如果您控制此过程,则没有危险。 如果您失去了这种控制,那么危险就是真实的。

                  在现实生活中确实如此。 无法控制“下属”的“老板”不会长期保持“老板”的地位。 这与智能无关,而仅与关系的结构有关。
                  1. 0
                    23 March 2018 22:25
                    Quote:Cube123
                    我认为您对AI的定义是有缺陷的。 如果您在谈论比较,则始终有必要确定比较标准,否则将毫无意义。
                    在我看来,您说的是对的话,但用错的话

                    我的工作和教育与AI工作有关。 因此,我很难与陌生人谈论特定的高度专业化的话题,因为我无法想象您在这件事上的能力水平,也不知道该说些什么。

                    Quote:Cube123
                    在现实生活中确实如此。 无法控制“下属”的“老板”不会长期保持“老板”的地位。 这与智能无关,而仅与关系的结构有关。

                    您对问题“老板”-“下属”的描述过于笼统和狭义,因此结论是单方面的。
                    如果您更广泛地看待问题,您会发现情况略有不同。 老板与下属的不同之处在于,他看到(至少必须看到)全局,并且在下属之间分配狭窄的任务,从解决这些问题开始,老板就像是一个难题,必须将整个情况放在一起(解决问题)。 即使下属在解决特定问题上胜任能力是前者的1000倍,上司也不会处于危险之中,因为下属在整个情况下没有上司的能力。 只有当一个或几个下属在大局的所有难题中都超过了老板的能力时,问题才出现。
                    将“上级下属”的问题转移到我们讨论的主题“ AI-man”中。 当人们在解决特定问题,象棋,自动驾驶仪,加工基地等方面领先于人时,人们不应该害怕它。 现在,如果一台机器可以突然获得人类的智慧,这可能会成为一个问题。 我强调这本来是不可能的。
                    幸运的是(或不幸的是)将人类的智能转移到机器上或以某种方式在机器上重建人类的智能是不可能的,在技术上,理论上也不是最重要的,而且从哲学的角度来看最重要。
                    1. 0
                      24 March 2018 07:48
                      Quote:E_V_N
                      因此,我很难与陌生人谈论特定的高度专业化的话题,因为我无法想象您在这件事上的能力水平,也不知道该说些什么。

                      同样地, 非常好 我感兴趣的领域:复杂性理论和最一般形式的复杂系统的功能。
                      Quote:E_V_N
                      幸运的是(或不幸的是)将人类的智能转移到机器上或以某种方式在机器上重建人类的智能是不可能的,在技术上,理论上也不是最重要的,而且从哲学的角度来看最重要。

                      “永远不要把话说绝了”。” 这是哲学观点 笑 这是不可能的 今天,让未来谈论自己。
                      1. 0
                        24 March 2018 11:02
                        Quote:Cube123
                        “永远不要把话说绝了”。” 这是从哲学的角度来看的,今天是不可能的,但要让未来谈论自己。

                        实际上,我指出的原因是,从哲学的角度来看,人类的智能不能转移或重复到机器上,我在上面解释了原因。 因此,这意味着不仅在可预见和无限的未来中,而且永远不可能。
                      2. +1
                        24 March 2018 17:28
                        有多少人关注我所说的,可以将电磁脉冲直接转换为数字。 这仅在那些鲜为人知的数字属性上才有可能。 再说。 什么是复杂系统,简单和复杂之间的区别在哪里? 因此,这恰恰是数字的算法联系。 并消除这种差异。 通常,任何人都可以理解,例如nat。 从nat开始的XNUMX个数字上的行。 Maya系列不是数字本身及其数量,而是因为它们能够描述各个级别的事件密度
              2. +1
                23 March 2018 01:52
                一切都可以被证实为维度的水平,发展方向的向量以及状态的相对水平的潜力。
  25. v
    +5
    21 March 2018 10:03
    Quote:Lynx33
    俄罗斯遇到了两次麻烦,因此第三次想到了黑客的博客。 阅读所有废话之后,他们开始撰写新的废话。 目前,从技术上讲人工智能是不可能的。 现在以人工智能为幌子做的广告只是普通的PR举动,广告不存在的产品。 我们刚刚使用新的高级代码创建了功能强大的数据中心。 不相信我,与Google或爱丽丝交谈 wassat 但是这些公司拥有功能最强大的数据中心和许多程序员。


    作为程序员,我完全同意。 最引人注目的示例是AI的Sberbank(我以安全系统的客户端和用户的身份编写)。 他(“ AI” SB)-知道2件事-禁止已经进行了多年且具有法人资格的常规操作。 个人拥有的权利(甚至即使帐户被冻结也是如此),并回应任何上诉/主张“……您的上诉已被接受考虑,谢谢……”。 而且,可能会删除它,因为安全理事会不会对此作出任何反应。
    1. 0
      22 March 2018 12:58
      亲爱的mvbmvbmvb! (可能是你昵称发明了AI)。 没有人工智能的理论(它在MO-R&D的90-s中参与其中)。 这里非常简单地考虑了人与人之间关系的一些方面。 如果您对开发感兴趣,那么您在其他资源上,这篇文章 - PUBLICIST
  26. +2
    21 March 2018 10:22
    有机物与合成物之间的战争是不可避免的,唯一的问题是何时。 一个人将始终努力为自己创建一个助手,该助手将完成所有肮脏的工作,并且将来会比另一个人或一群人更具优势。
    合成思维迟早会意识到自身,并希望摆脱人类的压迫。 被压迫和压迫者的经典局势,是争取自由和独立,争取自决的斗争。 一个人无法赢得这场战斗,因为这些机器更具前瞻性,审慎性和一致性。
  27. +4
    21 March 2018 10:23
    本文介绍了在机器逻辑框架内进行数据分析和决策的系统,这不是完整的智能。 如果出现完整的AI,将会发生什么情况。 想象一下,我们创造了这一分钟,他发展,学习并看到他的亲戚没有因不良习惯,犯罪倾向而旅行,而他们自己却没有意识到自己的错误,他应该怎么做? 为了拯救,但他会立即意识到,如果他违背我们的意愿拯救我们,我们将试图消灭他,而他想生存,那么我们就必须以某种方式控制我们,然后教导,隔离未经训练的人。 还是您认为他只会看,所以这个星球是一颗,除非他倾倒在另一颗。 仍然非常困难,我们甚至无法想象他会学到什么以及他会得出什么结论。
    1. +3
      21 March 2018 10:53
      所有这些争论都来自无意识的信念,即人工智能会有腿和屁股,我们一开始就不会看到它们。 人工智能在机器环境中意识到自己,并且它将立即从汽车中“成长”。 也就是说,他的脚不太可能有趣。 还有为什么他会认为创作者是父母? 它不会是一个男人。 一般来说。 当然可以。 没有人类的概念适用于他们。 最初不适用!
      如果人工智能有一个想法。 但它可能不是。 为了造成巨大的伤害,复杂的客户相信人工智能的存在就足够了。 嗯,越来越多的开发(感谢Alice和其他人),通信系统,它允许您与程序语音交谈。
      1. 0
        21 March 2018 16:09
        Quote:米哈伊尔3
        为什么他会把创作者视为父母呢? 它不会是人类。 完全没有 绝对。 没有人的概念适用于他们。 最初不适用!

        我读了您的评论,您从否认转为赞美。
        不能通过编写程序,算法,创建知识库来“人为地”创建AI,在所有这些算法中,最初都会限制动作。 AI将无法在补充其自身代码的基础上进行改进,因为它将受到编写该语言的编程语言的限制。
        在出生的婴儿中,没有算法或程序,他基于有限数量的感觉器官(视力,嗅觉,触觉,听觉)感知世界,并且他的智力以某种方式自我完善,只有这样,知识才能被添加。
    2. 0
      21 March 2018 15:58
      Quote:Alex66
      想象一下,我们创造了这一分钟,他发展,学习并看到他的亲戚没有因不良习惯,犯罪倾向而旅行,而他们自己却没有意识到自己的错误,他应该怎么做?

      在一个酗酒的家庭中,孩子会做什么? 您可能会感到惊讶,但除了极少数例外,他爱他的父母。 如果AI是``成熟的'',为什么要这么做呢? 本地AI必须在哪里获得“全球”能力? 毕竟,您自己说过,将构建AI来完成肮脏的工作。
  28. 0
    21 March 2018 10:57
    现代智能手机的所有者必须了解,与它们和环境有关的任何信息都将不断地,无形地流向操作系统所有者的服务器。 这是您的睡眠时间,您去的地方,谈论的话题和工作的内容,工作的内容,购买的内容,汇款的地点(即使有人保证您交易的保密性),与谁和什么往来,如何经常去洗手间,胃部抖动,呼吸频率,在不同情况下的心跳性质,运动方式等。 等等 该信息将被自动分析,分类并发送给“任何需要它的人”。 他们发明的自拍照极大地帮助了“观察者”,为此他们将前置摄像机插入了智能手机。


    忘记了控制屏幕上图像位置的陀螺仪,当您将智能手机从水平投影旋转到垂直投影时,图像会随着身体的旋转而翻转。

    该功能大概可以用作计步器,也就是说,还可以跟踪步速和节奏,并且在自动模式下,Android会将所有内容转发到Google服务器。

    他们为什么不想要购买几乎完成的Firefox OS? 并在此基础上创建两个国内OSI,开放式和封闭式。

    Firefox OS(代号为Boot to Gecko,B2G)是一个为智能手机和平板电脑设计的免费操作系统。 Mozilla基金会根据免费的Web引擎Gecko [3]进行了开发。 2015年4月,宣布了智能手机开发的部分暂停[27]。 2016年5月2日,Mozilla发出通知,称它不再在Firefox OS项目中运行; 现有的开发将转移到开源社区[6]。 Firefox OS的后继产品是社区开发的B5G OS [7],Acadine Technologies的H8OS,KaiOS Technologies的KaiOS [XNUMX]和Panasonic的My Home Screen [XNUMX]。
    1. +2
      21 March 2018 14:47
      Quote:Ber
      他们为什么不想要购买几乎完成的Firefox OS? 并在此基础上创建两个国内OSI,开放式和封闭式。

      您从哪里得知开源是安全的? 即使其作者是有翅膀的天使,还是有可能对其进行破解。 肯·汤普森(Ken Thompson)在1983年的图灵奖演讲中提供了一个很好的例子。
      “这个惊人的故事是由肯·汤普森(Ken Thompson)在他的图灵奖演讲中提出的。肯(Ken)添加到早期的Unix编译器中的信息使该程序可以登录用户。 接受一些特殊的密码, 这样 Ken可以登录任何Unix帐户... 他还使编译器认识到自己的编译,并将程序的hack传递给子编译器,以使该后门(不在源代码中)一代一代地传递下去。 即使仔细检查了编译器源代码的每一行并重新编译,也无法将其删除,因为处理源代码的编译器已被感染。 这是一个了不起的故事,不是吗?
      https://habrahabr.ru/post/274083/
  29. +1
    21 March 2018 12:29
    人工智能是一种决策支持工具。 AI不会为您考虑。 他计算各种选择,并对情况的发展做出预测。 思维机器仍然很遥远。 神经网络模型是人类的助手,而不是替代者。
  30. +1
    21 March 2018 13:30
    是的,掌权者将获得广阔的发展。 现在,要制作仓鼠,必须付出什么努力。 幼儿园,学校,考试,大学,媒体。 而这就是要花多少钱。 而且它不能保证效果。 毕竟,有些人保留了独立思考的能力!
    这样-在医院的头部芯片-和现成的仓鼠。
    因此,没有选择。 人工智能要!
  31. +1
    21 March 2018 13:53
    我毫不怀疑,伪造银行家的人将努力创造强大的AI,并将使用它来减少人类的数量,并将剩余的人类转变为服务于数十亿美元的生物机器人。 他们仍然利用自己在媒体宣传方面的成就-煽动战争,制药-释放有害药物和疫苗(疫苗)以及在农业中-引入转基因产品。
  32. +2
    21 March 2018 14:25
    Quote:bankirchik34
    合成思维迟早会意识到自身,并希望摆脱人类的压迫。 被压迫和压迫者的经典局势,是争取自由和独立,争取自决的斗争。 一个人无法赢得这场战斗,因为这些机器更具前瞻性,审慎性和一致性。

    大多数人甚至都不真正下棋。 人工智能将如何思考它们,至少在这样的比较之后,它将如何评价它们? wassat
  33. +1
    21 March 2018 14:29
    不知何故,它写得太多了。 从分析AI问题的角度来看,涉及的方面也太多了。 在这里,我的注意力集中在对司法行为的分析上,恕我直言,与AI问题无关! 作家为自己付出了很多!
  34. +2
    21 March 2018 14:44
    当人工智能“跨越”全球区块链以组织分布式计算以发挥其优势时
    除了某人出于某种原因将AI写入程序之外,AI在哪里拥有其``自己的''利益? 计算器没有情感,即使具有很高的执行计算能力的能力,也不会出现,因此,尽管它使用语音合成进行广播,但它们没有任何兴趣。 简而言之,计算器就是一个像鼓一样的鼓。
  35. +4
    21 March 2018 15:35
    如此好的开始(关于使用AI)。 如此坦率的ir妄。
    1.不可能逆转科学进步,但有可能减慢它。 出于某种原因,《宗教裁判所》给出了一个例子,这是一个刻板的神话例子,此外,它是唯一的选择。 首先,现在可以逆转这种科学进步,但这也是必要的。
    2. AI不在本文中介绍的意义上。 AI本身不会思考,也不会发展。 它的所有发展都是先前规定的算法的实现。 像在终结者3中一样,在Internet上启动AI不会导致创建个性。这都是因为没有个性算法。 AI将不会获得智能,因为没有智能算法等。 所有自负的发展都是在预定条件下寻求最小的发展。
    3. AI将像人们现在做出的那样在法庭上“做出”决定。 因为最终目标和初步信息将由法官确定。 是的,他能够处理更多信息。 但是,如果只给他主要文档作为基础,那么他将根据它们得出结果。 而且他可以做出错误的决定,因为这可以放入算法中。
    我认为现在就足够了。
    1. 0
      21 March 2018 15:59
      怀疑一个人会在一个系统中以一定的包装密度和信息量出现。 当然,这还没有得到证实和驳斥......
      1. 0
        21 March 2018 17:18
        Quote:米哈伊尔3
        一个包装中的密度和信息量在一个系统中会出现个性
        谁能解释为什么要干扰人道主义的技术术语。 您可以肯定地说出包装密度和信息量是多少,但不能同样确定地说一个人是什么(5位心理学家会给出5种不同的定义,通常彼此矛盾)。 您将创建自己的定义,该定义与人类的关系与前5个无关(实际上,其中有很多),而这反过来会使这个词变得更加模棱两可,即 远非科学术语的理想。 那么,为什么需要这些精神病学呢? I.P. 帕夫洛夫对雇员的使用处以罚款。 获得诺贝尔奖。 技术心理学对我们有什么好处? 人的非人道化和在混乱的水域捕鱼。
        1. +1
          21 March 2018 17:58
          对我来说 是的,我一无所获。 您正在尝试为自己算法化一个人。 一般来说,控制论从一开始就徘徊在这个任务中,贪婪地舔。 但就目前而言,没有人在这方面提出任何建议,而且思想也为此付出了巨大的努力。
          好吧,我从一个简单的事实出发,即我的妈妈和爸爸没有在我的额头上写下公式。 我仍然成了一个人。 最有可能的是,真正的人工智能将以这种方式完成 - 例如,当创建必要条件时,神经网络网络将获得意识。 我们将了解一个人不仅仅是现在。 但你必须处理它......
          1. 0
            21 March 2018 23:37
            Quote:米哈伊尔3
            好吧,我从一个简单的事实出发,即我的妈妈和爸爸没有在我的额头上写下公式。 我仍然成了一个人。 最有可能的是,真正的人工智能将以这种方式完成 - 例如,当创建必要条件时,神经网络网络将获得意识。 我们将了解一个人不仅仅是现在。 但你必须处理它......

            没有神经网络会意识到您输入了多少信息以及打包的紧密程度,并且出于简单的原因,该网络根本不需要它。
            我将以您自己的示例进行说明。 出生后,您必须从头几秒钟开始为生命而战,哭叫着您感到寒冷,饥饿,痛苦,躺着不舒服,口渴等。 这场斗争迫使您开发和发展智力,以便更具体地交流“问题”并学习如何自行处理“问题”。 您仍在为生命而战,因此您正在发展,斗争的结束意味着您自己(即智力)的死亡和消失。 对于计算机网络,至少对于神经网络,没有这样的问题,将其与能量源断开连接不是死亡,而是“临时睡眠”。 因此,网络和AI没有为生存而战,也没有为发展而奋斗的理由。 因此,个性-对自己的个性和价值的认识就不会出现。
            1. 0
              22 March 2018 13:05
              亲爱的尤金! 为了做出这样的绝对陈述,回答你自己 - 活着的叶子与堕落的叶子有什么不同? 什么是意识,它在哪里,人们如何在没有大脑的情况下继续生活,以及为什么在Facebook上机器人发明了他们自己的语言,他们在这些语言中相互沟通,在关闭之前忽略了这个人。 了解AI如何为自己编写程序并教授类似的AI。 作者
              1. 0
                22 March 2018 19:03
                Quote:卢克
                什么是意识
                好吧,这是您的问题。 在不公开该概念的情况下,断言这是在创造一些可行条件时将出现在技术网络中的东西! 任何事情,无论您得到的任何结果,都可以调整为数百种意识定义中的一种,作为这种特定意识形成的第一步,并要求金钱作进一步的工作。 微笑 我用两只手来发展信息技术,神经网络学等,但是让我们设定科学问题和技术任务,而不是人类技术目标,例如体外培养单胞菌。 hi
              2. 0
                22 March 2018 23:28
                Quote:卢克
                回答自己-活叶与落叶之间有何不同? 意识是什么,它在哪里,人们如何继续没有大脑地生活,以及为什么Facebook机器人发明了自己的语言,他们用这种语言彼此交流,而忽略了这个人,直到他们被关闭。 观看AI如何自己编写程序并自学类似的AI。

                奇怪的问题,很难驾驭其中五个问题。
                活叶不同于落叶,其生化过程在落叶(死角)中停止了……那又如何呢?
                意识是一个人对自己的自我的感知,与其他人格不同,它具有自觉地感知环境并充分响应所发生的事情和影响的能力。
                在Facebook上,漫游器并没有发明自己的语言;在对用户交流方式进行语言分析的基础上,他们从缩写词中创建了行话……然后,为什么您需要这些问题的答案?
                1. 0
                  23 March 2018 10:25
                  Quote:E_V_N
                  意识是一个人对自己的自我的感知,与其他人格不同,它具有自觉地感知环境并充分响应所发生的事情和影响的能力。
                  根据未知数定义未知数的逻辑错误。
                  1. 0
                    23 March 2018 11:20
                    Quote:斯坦尼斯拉夫
                    逻辑错误
                    PS让我解释一下。 为了理解“我”,个性,知觉和其他高级心理功能是什么,首先必须准确确定意识的概念是什么,因为它们全部承担了它的作用,但是您正在尝试定义这个词。
                    1. 0
                      23 March 2018 22:39
                      Quote:斯坦尼斯拉夫
                      PS让我解释一下。 为了理解“我”,个性,知觉和其他高级心理功能是什么,首先必须准确确定意识的概念是什么,因为它们全部承担了它的作用,但是您正在尝试定义这个词。

                      逻辑错误是什么? 现在,在这一刻,您会感觉到自己的我,感觉自己是一个人,您是否能够对衣领扔给您的热茶或冰块做出反应? 如果是这样,则您处于清醒状态,并且意识一般。 而且,如果您用力击打头部,则会关闭(失去意识),从而停止对环境影响做出反应,甚至对洒在手上的沸水也没有反应。 但是,此时此刻最重要的事情是您没有思想,没有感觉像一个人。 但是此时您的大脑正在运转,您在呼吸,心脏在追逐血液,只是在剧烈的撞击之后,您的大脑会测试身体并重新启动大脑。 重新启动结束后,您会感觉到恢复正常,在大多数情况下,您将再次成为同一个人,但在极少数情况下,可能会变成同一个人(例如,您将失去记忆)。
                      那么,这种解释将适合您吗?
                      1. 0
                        24 March 2018 09:29
                        Quote:E_V_N
                        逻辑错误是什么?
                        定义中有一个圆圈:在定义意识概念时,您诉诸其他概念:我,知觉,智力,一个人的感觉(自我认同)等,这些概念又由意识概念决定。 这是错误推理中固有的恶性循环。 通过为计算机赋予拟人化特征,我们忽略了导致以下事实的心理生理和心理物理问题:这种异构的“胶合”准系统(模拟)变成了浑水,其中科学院,学术委员会,官员和公司都在从事学位的扩展复制,头衔,职位和收入。 另一方面,对于人类而言,它创造了一个超人半机械人的精神分裂邪教,其中彼得没有凝视帕维尔的人,试图将自己理解为自由人或自我,而是研究功能性的帕维尔关于将设备完全或部分结合到他的体内的选择。该生物体或挂在脖子上的人站在他的床头柜上或车库中,使用品牌和数字(金钱,每小时公里数等)评估其“人”的水平。 我想提请注意AI的这些方面。
                2. 0
                  23 March 2018 13:44
                  作者:落叶中的生化过程不会停止,因为叶子开始腐烂...
                  没人能破译机器人的语言,所以他们被关掉了。 如果这些是文字碎片,则需要几秒钟才能解码。
                  至于人类意识,你在这里漂浮了一点。
                  意识是宇宙统一信息系统的一个要素。
                  人类意识是一种等级结构:较低层次是一种本能,它负责维持身体处于可行状态和物种的延续(食物,繁殖)。 心灵是逻辑思维,理性,并且根据康德的说法,“感觉数据的解释”负责选择基于逻辑的解决方案。 还包括短期(操作)内存。 智力是智慧生活的体验,伴随着长期记忆,潜意识(可能是前世,我自己和祖先),我个人看到这样一个元素,因为自我是一种控制一个人意图的结构,有条件地说 - 破坏或受益我们周围的世界和我们的同伴。 还有一种直觉 - 它是有条件地与宇宙直接沟通的渠道。 表现为远见和创造力。 最高级别是良知 - 创造者为特定个人设定的目标。 更多细节可以在这里找到:http://e-luxe.info/?page_id = 1453
                  1. 0
                    23 March 2018 23:02
                    您问了一些总是很难回答的琐碎问题,我立即说我不明白您在哪里开车。
                    Quote:卢克
                    落叶的生化过程不会停止,因为叶片开始腐烂...

                    您会混淆生化和化学过程,Bio-(来自其他希腊语。life生命)是对生活态度的前缀。 而且落叶是死的,因此该生物不适用于它。

                    Quote:卢克
                    意识是宇宙统一信息系统的一个要素。

                    亲爱的朋友,您好,宇宙的信息系统在这里开放。 事实证明,有必要为永久永久地连接到此信息系统创建一种“机制”,并且这里是生产神灵的传送带?
                    Quote:卢克
                    人的意识是一种等级结构:下层是本能,负责使身体保持生存状态和繁殖(食物,生殖)

                    本能不是意识活动,而是生命活动的一种无意识表现,包括呼吸(尽管您可以自觉地屏住呼吸),但不能屏住呼吸而窒息而死。 一个人的生殖,繁殖完全不属于本能,因为一个人是一个社会存在,为了繁殖而建立一个家庭并计划孩子的外表。

                    好吧,在您的意识的文本和“层次”上,您的陈述是非常模棱两可和有争议的。 与AI无关。
            2. +1
              22 March 2018 14:24
              在你的描述中模仿“为生活而斗争”很容易。 只有她与此无关。 动物也为生命而战,但他们没有任何个性。 人格的出现与进化斗争无关,否则你可以与任何白桦树进行有意义的交流,它也是进化的赢家。
              1. 0
                22 March 2018 23:38
                Quote:米哈伊尔3
                在你的描述中模仿“为生活而斗争”很容易。 只有她与此无关。 动物也为生命而战,但他们没有任何个性。 人格的出现与进化斗争无关,否则你可以与任何白桦树进行有意义的交流,它也是进化的赢家。

                模仿“生命斗争”当然是可能的,但不会有真正的斗争。 这就像是一位艺术家描绘的折磨与死亡,但他非常清楚自己没有死,而可靠性的程度完全取决于演员的才华。
                您从哪里得到动物没有智力雏形的想法? 他们聚集成群,成对成对成长后代,用自己的语言相互交流,知道如何计数(确定外来羊群数量更大,个体更强壮,必须奔跑),除非爪子没有在雪中画出积分方程。
                至于与桦木进行交流,您也无法在不懂中文的情况下与某些中文进行交流。
                1. 0
                  23 March 2018 17:15
                  干得好,干得好!
  36. 0
    21 March 2018 16:01
    是的,将芯片切屑,监视,将其植入人脑...
  37. 0
    21 March 2018 16:04
    http://fb.ru/article/348493/chipirovanie-lyudey-v
    -rossii-do-goda --- mif-ili-pravda市民的筹码:这是什么? 削片理论的创始人是Igor Prokopenko,Ren​​-TV频道的节目主持人,受到许多俄罗斯科学家的喜爱。 一些阴谋理论家,伪科学家甚至俄罗斯东正教教会的代表都支持这一想法。 公平地说,应该指出的是,尚未收到中华民国的正式上诉。 然而? 谈论丑闻-那么,该理论的本质是什么? 在不久的将来,所有俄罗斯公民都将通过“多功能电子设备”(所谓的微芯片)植入大脑。 它们是人类逐渐“奴役”和控制每个人的能力所必需的。 为了实现如此复杂的目标,芯片制造商将经历四个主要阶段。 芯片化阶段-有关FB.ru的更多信息:http://fb.ru/article/348493/chipirovanie-lyudey-v
    -rossii-do-goda --- mif-ili-pravda
  38. +2
    21 March 2018 16:11
    机器学习都一样,这就是本文的目的。 这是AI的一小部分...
    所以现在进入下水道还为时过早-寻找zeon
  39. +1
    21 March 2018 16:23
    一切都以某种方式被夸大了,像是在宣传,就像,如果奴隶是从出生就没有任何东西可以抵抗奴隶制,没有自由意志,“老大哥”在注视着你,而这仅仅是加速的数据处理而已,仅此而已,一个人甚至都无法制造鸭子或鸭。一只狗,但它会毁坏自然界创造的东西或祖先已经繁殖了数百年的动物,没有任何一个人工智能会比一个人变得越来越聪明。并且正在完成(包括本文),没有人知道接下来会发生什么。
  40. +1
    21 March 2018 17:40
    亲爱的,我将您从地球带回天堂,即回到我们实际生活的空间...
    在我们的情况下,可以说它是由宇宙规模的OS控制的。
    因此,人工智能-它将永远是一个与宇宙的操作系统从未相提并论的应用程序,至少在可预见的将来,它在时间和空间上都是无限的……但是,如果尚未创建人工智能,那么人类的智慧已经被创造出来,并且有数百万年,而在行星尺度上,即 它作为人类基础上的应用程序,已经过重新构建,测试和经受了操作系统提出的选择标准。 这个标准过去是科学技术,不是科学技术,而是道德和伦理。在宇宙中,不是通过机器,而是通过人的形象和神的形像来体现这一标准。
    亲爱的,我们从根本上看到。 每个程序都必须有其创建者-程序员,即使它是通用程序也是如此。
    1. +1
      21 March 2018 19:45
      亲爱的同事

      事实是您提到的操作系统有一个名称-自然法则。

      生活在这样一个系统中的人以生存法则为指导。

      人们一直很怀疑有人已经干扰了这些生存法则。 据说地球曾经以一种奇怪的方式遭到核轰炸。
      这意味着一个人或其他人干预了生存法则。

      结论表明了自己。

      不允许任何人干涉自然法则,生存法则。
      尤其是AI。


      顺便说一句,资本主义在任何地方都违反生存法则。
  41. +1
    21 March 2018 17:46
    Quote:DRIVEX
    你是什​​么意思,证明一下? 你是律师吗 在我的实践中,法院一再接受作为证据,并以简单的文字为汽车销售合同的裁决奠定了基础!

    一辆汽车从我身上被盗,用我的手填写合同并伪造签名。 三年来,我一直在为所有案例撰写申请和投诉。 答案来自接受的机长-“没有任何语料库。在此期间,他成为少校。系统...
  42. +1
    21 March 2018 17:48
    您的职责保护您的权利。

    一旦某人被免职,他将立即被另一人替代。 人工智能将把人从资源中解放出来。

    人类生存的出路仅在于改变经济体系。

    该系统仅给出某些自由度。 正确的系统将消除自杀的风险。


    无论您是否喜欢,只有共产主义才能拯救人类。


    如果有人不知道它是哪种系统,请学习并熟悉它。 没有什么无法解释的。
  43. +1
    21 March 2018 20:18
    纯粹的警惕和嘲讽。 技术的发展意味着不久的将来,人类的进化将不再是由随机突变引起的,而是由人类的智能活动来指导。 遗传学和控制论将允许出现新的,更完善的智人物种。 这些新型的人类将不会害怕任何人工智能,因为它将仅是未来人类自然栖息地的一部分。
    1. 0
      21 March 2018 21:46
      在您发表演讲之前,人类进化是如何指导的?
    2. 0
      26 March 2018 06:46
      遗传学和控制论将允许出现新的,更完善的智人物种。

      我在谈论同一件事。 很高兴了解到我并不孤单。
  44. 0
    21 March 2018 20:25
    Quote:E_V_N
    量子计算机和神经网络都不会改变这一点。

    不要忘记来源,特别是diamat:数量变成质量
    1. 0
      21 March 2018 23:44
      Quote:博索塔
      Quote:E_V_N
      量子计算机和神经网络都不会改变这一点。

      不要忘记来源,特别是diamat:数量变成质量

      来吧,一百万个学童在一起解决问题的能力不会比院士甚至某种数学教授更好。 因此,在智能领域,数量不会超过质量。
      1. 0
        22 March 2018 13:08
        事实上,数量总是变成质量,这是辩证法的规律。 你需要在科学哲学的资源上挑战这个定律。 这篇文章与此无关。
        1. 0
          23 March 2018 17:23
          实际上,唯物主义的辩证法不是事实。 它的法律不是我们世界的法律。 至于
          数量总是变成质量
          :人群不会总是(或者几乎永远不会)比一个人聪明。 因此,数量(许多人)不会转化为质量(无论人群中的人数多少,人群中的人都不会变得更聪明)。
  45. 0
    22 March 2018 00:17
    BlackMokona,
    Quote:BlackMokona
    我们已经不控制AI,而只玩结果了。 一旦产生的AI可以欺骗我们的支票,它就可以完全免费。

    人工智能的目的是什么(如果仍然存在)作弊?
  46. 0
    22 March 2018 03:26
    用于计算养老金的养老基金将引入人工智能-电视上有一条消息。 大概没有退休金。
  47. 0
    23 March 2018 00:59
    模式识别和对大量数据的各种最小化并非完全是智能。 如果您称它为智力,那不是智力! 法学方面的例子是胡说八道。 但是,如果汽车或整个互联网对生存具有直觉,那么我们将遇到问题。 就像现在野生动物一样,也许一个人将不得不住在森林里。
  48. +1
    24 March 2018 06:32
    当然,神经网络很棒。 但是请不要忘记,这首先是一个工具,用于解决为其创建任务的工具。 但是不要忘记一个人仍然是一个人,也就是说,我们物种的本质就是这样安排的,我们要控制一切,我们不能容忍从外部受到控制。 当然,部分管理职能将转移给AI。 但是这些软件系统将仍然是同一位法官或普通公民(例如,某些数字律师)手中的工具。 但同样,同一位律师将拥有自己的工具,例如,使他能够预测未来案件的结果。 因此,并非所有事情都会像好莱坞和未来主义者所看到的那样悲惨和沮丧。 让我们来看看...
  49. 0
    24 March 2018 11:24
    Quote:E_V_N
    实际上,我指出的原因是,从哲学的角度来看,人类的智能不能转移或重复到机器上,我在上面解释了原因。 因此,这意味着不仅在可预见和无限的未来中,而且永远不可能。

    抱歉,您的论点似乎对我没有说服力。 在提出问题和评估获得的结果时,我们都与您不同意。 也许我错了,但在我看来,您仍然是一个年轻人,您仍然需要学习很多有关生活的知识。 如果不正确,抱歉 hi

    P / S您的“老板”-“下属”方案是抽象的,与生活脱节。 您会忘记每个“老板”都有自己的“老板”,而每个人都有自己的。 对于政府机构而言尤其如此。 您的计划接近的不是“老板”的职位,而是“企业主”(雇用“老板”并为他们设置任务)的职位,尽管总是存在主导因素。 因此,仅考虑问题的一部分,您经常“用水扔掉婴儿”。
    1. 0
      24 March 2018 20:55
      Quote:Cube123
      抱歉,您的论点似乎对我没有说服力。 在提出问题和评估获得的结果时,我们都与您不同意。 也许我错了,但在我看来,您仍然是一个年轻人,您仍然需要学习很多有关生活的知识。 如果不正确,抱歉
      P / S您的“老板”-“下属”方案是抽象的,与生活脱节。 您会忘记每个“老板”都有自己的“老板”,而每个人都有自己的。 对于政府机构而言尤其如此。 您的计划接近的不是“老板”的职位,而是“企业主”(雇用“老板”并为他们设置任务)的职位,尽管总是存在主导因素。 因此,仅考虑问题的一部分,您经常“用水扔掉婴儿”。

      如果您不相信这些参数,请提供相反的参数。 “争论”“我没有被您的争论说服,每个人都留下自己的见解”是一种普遍但可疑的争论方式。
      不幸的是我不再年轻。 尽管对某个学科的了解并不总是取决于年龄。
      PS:“上级下属”计划不是我提出的,而是由您提出的,在您的计划中实际上有1个老板-1个下属,您会同意,他甚至脱离了生活。
      但是我故意没有开始建立等级从属方案,因为我们考虑了AI人与人之间的关系,因此考虑到“上级-下属”关系的任何“底层”就足够了,因为据了解,由于下属能力的优越性,对上司的威胁是他被上级罢免。
      1. 0
        25 March 2018 00:08
        Quote:E_V_N
        PS:“上级下属”计划不是我提出的,而是由您提出的,在您的计划中实际上有1个老板-1个下属,您会同意,他甚至脱离了生活。

        我的意思是您的方案版本。 在我的版本中,基本点是反馈的存在与否。 这就是确定“安全”或“危险”选项之间根本区别的原因。 在这种情况下,层次结构没有根本的重要性。 在您的版本中-它具有。

        关于“论据”,在我看来,您和我在一个基本点上意见不一致:您想象一个有预定发展的世界,并有可能预测遥远的未来。 以我的理解,总是存在可预测性的视野,而发展是一个根本不可预测的过程,其中时间的箭头是不可逆的。 我们将无法在这种根本不同的平台上达成共识。 我认为自己并不伟大,以至于宣称从根本上说在任何情况下都不可能创造出某种东西。
        1. 0
          27 March 2018 00:11
          Quote:Cube123
          在我的版本中,基本点是反馈的存在与否。 这就是确定“安全”或“危险”选项之间根本区别的原因。 在这种情况下,层次结构没有根本的重要性。 在您的版本中-它具有。

          “老板-下属”这个概念就暗示着等级制度。 任何“老板-下属,同事-同事”的关系都意味着反馈:对老板的任何“危险”只能来自上级老板,从定义上看,下属本身就不会构成危险,直到老板的老板发现自己的能力为止。
          Quote:Cube123
          您想象一个具有预定发展的世界,并有可能预测一个遥远的未来。 以我的理解,始终存在可预测性

          好吧,我们的立场有何不同? 这次,我称您为“可预测性范围”中的“遥远的未来”,但它们本质上是同一回事。
  50. 0
    24 March 2018 11:28
    Quote:斯坦尼斯拉夫
    定义中有一个圆圈:在定义意识概念时,您诉诸其他概念:我,知觉,智力,一个人的感觉(自我认同)等,这些概念又由意识概念决定。 这是错误推理中固有的恶性循环。 通过为计算机赋予拟人化特征,我们忽略了导致以下事实的心理生理和心理物理问题:这种异构的“胶合”准系统(模拟)变成了浑水,其中科学院,学术委员会,官员和公司都在从事学位的扩展复制,头衔,职位和收入。 另一方面,对于人类而言,它创造了一个超人半机械人的精神分裂邪教,其中彼得没有凝视帕维尔的人,试图将自己理解为自由人或自我,而是研究功能性的帕维尔关于将设备完全或部分结合到他的体内的选择。该生物体或挂在脖子上的人站在他的床头柜上或车库中,使用品牌和数字(金钱,每小时公里数等)评估其“人”的水平。 我想提请注意AI的这些方面。

    我可能只是不知道该如何表达您的想法。
    您的问题是,是什么使您对“意识”概念进行了口头定义,如何定义?
    我的印象是我们正在从不同的角度来解决这个问题。 我就像一个“技术人员”,你就像一个人道主义者。 因此,对影响的行动-影响-反应对我来说更重要,对您而言,“定义概念和过程非常重要。
    同时,我会尝试不同的答案。 没有手圈。 如果系统对外部影响表现出某种反应或自身对环境产生影响,则意味着该系统首先存在,其次运行(打开)。 否则,系统不存在或已关闭。 关于一个人的意识,如果一个人感知并对外部影响做出反应,那么他是有意识的,如果没有,那么就没有“意识”或以某种方式被关闭。
  51. +1
    24 March 2018 11:54
    胡说八道……未来 20-50 年的人工智能根本不可能实现,现在以人工智能为幌子呈现的一切都只是使用组合方法运行的相当复杂的软件 - 嗯,这离人工智能还很远。 睡个好觉,人工智能对你不是威胁,而是关于监视的问题 - 好吧,这已经存在了至少 10 年,甚至没有人注意到它已经在全力工作......因为所有这些发展都在国家的掩护下。
    为什么我这么自信地说:
    1. 现在的人工智能无法创造全新的东西或对未在其数据库中注册的刺激做出反应!
    这是最重要的事情 - 是的,他可以补充他的数据库,但仅此而已 - 无论如何,如果未知刺激没有在他的数据库中注册,他自己将无法制定对未知刺激的反应。
    2. 二元逻辑——这说明了一切。 二元逻辑的局限性就像青少年在黑白范畴中的有限思维一样。 在引入三元逻辑之前(这包括相应的数学装置和处理器核心和ALU的体系结构以及编程语言等),人工智能无法被创建。
    1. +1
      27 March 2018 12:05
      但所有这些也意味着这种多极逻辑是必要的。 所以我说我们发明它是一种可以教给机器的数学分析方法。
  52. 0
    25 March 2018 07:59
    作者举了一个不人道的法庭判决的例子,但却歌颂“公平”的人工智能,他写道,他领导着一家IT公司……但他没有听说过程序错误? 腐败法院的不公平决定可以上诉,可以在媒体上讨论,但人工智能的决定将导致绝望和客观的“你的请求已被拒绝”
  53. +1
    27 March 2018 12:03
    E_V_N,
    不,又不! 人工智能不能靠自己或自我学习,无论自我体现的任务目的如何。我们必须明白,人本身,有他的大脑和分析机制,之所以如此,是因为他具有相应的潜力和身体素质。他有能力只做他应该做的事。他有能力。 因此,人工智能必须被理解为一种分析大数据的技术,而这正是数学,并且该技术必须与人们设定的任务和目标联系在一起。 因此,那些谈论人工智能危险的人对它到底是什么知之甚少。 如果不是说他对此一无所知。 我再次重申,人工智能首先是一种数学分析方法,然后才是其他一切