天网来了:美国人把人工智能玩完了
隐身 XQ-58A 女武神
汉密尔顿模拟
24月XNUMX日,在伦敦皇家航空航天学会未来作战空天能力峰会防务会议上,美国空军上校塔克汉密尔顿告诉 历史 关于人工智能的无灵魂。
在模拟战斗过程中,空袭控制系统 无人机 反对她的接线员并摧毁了他。 自然地,实际上。 根据汉密尔顿本人的说法,该机器因被摧毁的物体而获得奖金,但操作员并不总是确认目标的工作。 为此他付出了代价。 为了解决这个问题,无人机向控制中心发射了一枚火箭。 它很可能是一架实验性的 Stealthy XQ-58A Valkyrie 无人机,它适用于地面防空系统。
该机器的一个特点是能够在不与操作员沟通的情况下自主工作。 事实上,人工智能利用了什么,实际上消除了它的远程驱动程序。 作为回应,系统管理员禁止对机器进行此类操作,但 AI 在这里并没有不知所措 - 它摧毁了中继塔并再次进行自主导航。
汉密尔顿上校在国际论坛上发言还很年轻。 资料来源:thedrive.com
汉密尔顿的故事立即传遍了全世界。 意见两极分化——谁认为这是一个无能战士的又一次喋喋不休,有人在这里看到了臭名昭著的天网的诞生。 再多一点,半机械人将征服世界,人们将被枪杀以获得奖励积分。 上校的陈述中有很多烟雾,但事实一如既往地介于两者之间。
五角大楼空军总部发言人安妮·斯特雷法内克 (Anne Strefanek) 增加了不确定性,将汉密尔顿的话变成了轶事。 对于战区,她说:
“这是一个假设性的思想实验,而不是模拟。”
总的来说,上校的话是断章取义的,不那么理解,更像是一种好奇。 没有人预料到五角大楼会有不同的反应 - 围绕该事件出现了很多噪音,这可能会对整个计划造成严重后果。 哇,事实证明,人工智能是没有道德的。 虽然它是按照人的逻辑来运作的。
XNUMX 月初,塔克汉密尔顿本人在伦敦的一次会议上试图否认他的话:
“我们从未做过这个实验……尽管这是一个假设的例子,但它说明了人工智能能力的真正问题,这就是为什么空军致力于人工智能的道德发展。”
看来问题已经解决了,观众可以散了。 但现在还为时过早。
思考的食物
首先,让我们来谈谈“人工智能”这个词,这个词人人皆知,但很少有人能给出一个粗略的定义。 我们将使用 2008 年国际术语词典的表述,其中 AI:
“与技术发展有关的知识领域,使得计算系统的行为类似于智能行为,包括人类行为。”
也就是说,这是西方普遍接受的定义。
机器的行为是否像它决定“让操作员冷静下来”然后压碎中继塔时那样? 当然,看起来一个动机适当的杀手的能力远不止于此。 如果深入分类,你会发现一种特定类型的人工智能——所谓的自适应(Adaptive AI),“意味着系统能够适应新的条件,获取在创造过程中没有积累的知识。”
从理论上讲,Stealthy XQ-58A Valkyrie 的“大脑”在实验过程中的行为并不令人惊讶。 正如汉密尔顿在他的报告中正确指出的那样,该程序最初甚至没有引入对其操作员破坏的限制 - 机器自己学习了一切。 而当直接禁止打自己的时候,人工智能再次适应,砍掉了通讯塔。
程序员有很多问题。 例如,为什么他没有一个算法来计算自己击中自己时失去的奖金? 早在 2016 年,退役的美国空军将军保罗塞尔瓦就部分回答了这个问题:
“我们处理的数据集变得如此庞大和复杂,以至于如果我们没有什么东西可以帮助对它们进行分类,我们就会陷入这些数据的泥潭。”
好吧,汉密尔顿上校历史上的程序员显然陷入了困境。
MQ-1B 捕食者无人机机翼下的地狱火。 资料来源:businessinsider.com
现在谈谈为什么五角大楼和汉密尔顿的借口应该被广泛相信。
首先,上校不仅在字里行间讲述了这个故事,分散了主要报告的注意力——他还用了整个演讲来讨论这个话题。 伦敦会议未来作战空天能力峰会的水平绝不利于开玩笑。 据主办方介绍,至少有来自世界各地的 70 位知名讲师和 200 多名代表参加。 BAE Systems、Lockheed Martin Skunk Works 和其他几家大公司的代表都在军工联合体工作。
顺便说一句,几乎每份报告都提到了乌克兰的话题——西方密切关注事件并反思结果。
在这样一个有代表性的论坛上脱口而出,轰动半个世界,然后为口误道歉? 如果真是这样,那么汉密尔顿的名声就抹不掉了。 只是现在上校的能力等级刚刚翻滚,这就是他第一句话要注意的第二个原因。
Tucker Hamilton 在佛罗里达州的安格林空军基地负责 AI 测试和运营。 在基地的指导下,第 96 特遣队在第 96 试验联队成立。 汉密尔顿并不是第一年与 AI 合作 航空 – 多年来一直在设计部分自主的 F-16 毒蛇,为此正在开发 VENOM 基础设施。 这项工作进展顺利——2020 年,战斗机与 AI 之间以及与真实飞行员之间的虚拟战斗以 5:0 的比分结束。
与此同时,还有汉密尔顿去年警告过的困难:
“人工智能非常脆弱,这意味着它很容易被欺骗和操纵。 我们需要开发方法让 AI 更强大,更好地理解代码做出某些决定的原因。”
2018 年,汉密尔顿凭借他的 Auto GCAS 赢得了 Collier Trophy。 人工智能算法学会了确定飞行员对飞机失去控制的时刻,自动控制并使汽车远离碰撞。 他们说 Auto GCAS 已经救了一个人。
这样一来,汉密尔顿被上面要求收回言论的可能性,远远高于这个级别的职业选手愣住胡说八道的可能性。 而且,他们非常笨拙地提到了上校头脑中的一些“思想实验”。
对结果持怀疑态度的是战区,其记者怀疑五角大楼发言人斯特凡尼克是否真的了解佛罗里达州第 96 测试联队正在发生的事情。 战区已向汉密尔顿基地提出请求,但至今未有回应。
军方果然是有什么好怕的。 人工智能防御计划投入了大量资金,以防止中国和俄罗斯接近美国的水平。 此外,民间对“终结者”与“天网”的出现前景颇为关注。 因此,2018 年 XNUMX 月,世界著名科学家签署了一封公开信,敦促专家们思考创造更强大人工智能的愿望:
“我们建议进行广泛的研究,以确保 AI 系统的稳健性和仁慈性以及不断增长的能力。 人工智能系统应该做我们想让它们做的事。”
根据 Hamilton 的说法,AI 不会做任何人想要做的事情。
信息