新物网

当前位置:首页 > 科技

科技

AI机器人横扫CES,OpenAI偷偷解除ChatGPT军事应用限制,天网来了?

时间:2024-01-15 09:10:56
「武器开发和军事战争活动在不同程度上可能是合法的,但这对AI安全的影响可能非常大。作为一名自上世纪70年代就开始从事人工智能研究的学者,还认为:「新的政策文件似乎通过特定关注武器,来规避对军事合同和战争行动的讨论。

AI机器人横扫CES,OpenAI偷偷解除ChatGPT军事应用限制,天网来了?

CES 2024上,各种机器人制作咖啡拿铁艺术,给人们按摩,让人大开眼界。 然而此时此刻,网友却惊讶地发现,军事和战争用途的限制竟然被悄然删除了!

前阵子的斯坦福“炸虾机器人”让无数人感叹:2024年不就是机器人元年吗?

就在这几天的CES 2024上,又一大波机器人在展厅引起了轰动!

例如,这位机器人咖啡师熟练地将一壶光滑的泡沫牛奶倒在拿铁咖啡上。

首先,它慢慢地倒牛奶,然后以精心设计的舞蹈优雅地举起罐子,给郁金香花瓣上色。

对于人类来说,学习拉花艺术需要数月甚至数年的时间,但这位人工智能机器人咖啡师却能轻松流畅地掌握它。

这一幕让34岁的罗曼·阿莱霍感到焦虑。

这位拉斯维加斯赌场的咖啡师忧心忡忡地想:人工智能时代,酒店行业是不是不再需要人类了?

他的担忧并非空穴来风——CES展会上有很多触动人们神经的机器人,带来惊喜的同时也引起人们极大的焦虑。

01 机器人成为物流帮手还能给你按摩

法国Tools公司展示的物流机器人的灵感来自于动画。

预计到2025年,它可以成为医生和护士的助手。

法国公司打造的iYU机器人是一位按摩大师。

它首先使用AI进行实时全身扫描,为用户提供最佳体验,然后机械臂开始为你按摩。

除了送货机器人、按摩机器人、咖啡师机器人外,展会上还有可以制作冰淇淋、珍珠奶茶的智能产品。

有一款人工智能驱动的智能烧烤炉,无需任何人在厨房操作即可完成烧烤任务。 未来的餐厅很可能会布满机器人厨师。

这些高性能机器人引起了很多业内人士的恐慌。 “这非常可怕。越来越多的人工智能正在进入人类世界。”

02 也“进入游戏”

种种迹象表明,2024年将成为人形机器人元年,尤其是在巨额投资也在进行的情况下。

最近,由支持的公司1X 刚刚筹集了1亿美元的B轮融资。

具体来说,1X 的 NEO 具有类似人体肌肉的解剖结构和非严格的液压系统,将力量与柔软融为一体。 它不仅可以自然行走、慢跑、跑楼梯、导航,还可以远程手动控制。

在人工智能和机器人技术的全力支持下,NEO可以轻松完成物流、制造、机器操作等工业任务,以及家务、照顾人等家庭任务。

有趣的是,NEO这个名字很容易让人想起科幻电影《黑客帝国》。

投资者EQT合伙人特德表示:“从达芬奇到今天的科幻小说,人类对人形机器人的梦想已经有500多年了。很荣幸见证这项技术在我们眼前成形。”

“我们认为,机器人加入人类劳动力队伍将产生变革性的影响。”

03 《终结者》成为现实?微软现在可以控制机器人

但机器人真的会帮我们做家务吗?

要知道,微软已经可以控制机器人了。

去年,微软发表了一篇论文,提出了一套新的设计原则,通过如此庞大的语言模型向机器人提供指令。

论文链接:

只要文笔足够好,表演就会更加精彩。

微软专家发现,如果把这种能力转移到机器人身上,假设几十年后,每个家庭都会有一个机器人,只要说“热热我的午餐”,它就能自己找到微波炉,并把微波炉带来。食物。 回来后,人机交互将直接进入一个新时代。

让用户更轻松地与机器人交互的关键部分是教授如何使用物理定律、操作环境背景以及理解机器人的物理行为如何改变世界状态。

实验证明,真正的无人机是可以控制的。

根据下面视频中的对话,对技术完全不了解的用户只需通过对话即可控制无人机。

最近讨论的GPT-5将更接近AGI,将使已经可以“自学习”并且更容易远程操作的机器人变得更加无所不能。

那么,接下来的发展又会如何呢?

04 悄悄解除将用于“军事和战争”的禁令

最近,发生了一件令人担忧的事情。

就在本周,当所有人的目光都被无与伦比的GPT Store所吸引时,有外媒发现,军事和战争用途的禁令在没有任何公告的情况下悄然解除!

1月10日之前,“使用政策”页面包括禁止“可能造成严重身体伤害的活动”,具体包括“武器开发”和“军事和战争活动”。

虽然新政策仍然禁止“利用我们的服务伤害自己或他人”,并以“开发或使用武器”为例,但之前全面禁止“军事和战争”用途的规定已不复存在。

它表示,这样做是为了使文档“更清晰、更容易理解”,并包括许多其他重要的语言和格式更改。

旧条款

新条款

发言人 Niko Felix 表示:“我们的目标是创建一套易于记忆和应用的通用原则,特别是考虑到我们的工具现在被世界各地的日常用户使用,并且这些用户现在也有能力开发 GPT 模型他们自己。 ”。

“‘不造成伤害’的原则很广泛,但易于理解并适用于许多情况。 我们还特别提到使用武器和对他人造成伤害作为具体例子。”

但至于所有军事用途是否都受到模糊的“伤害”禁令的涵盖,菲利克斯并没有明确表示:“任何使用我们技术的行为,包括军事用途,‘开发或使用武器、伤害他人或破坏财产,或从事禁止对服务或系统安全进行任何未经授权的活动。”

对此,Trail of Bits 工程总监、机器学习和自主系统安全专家 Heidy 表示:“很明显,如果他们的技术和服务用于军事目的,可能会存在风险和危害。”

在 2022 年与研究人员共同撰写的一篇论文中,特别指出了军事用途的风险。 相比之下,新的使用政策似乎更注重合法性而不是安全性。

论文地址:

“这两项政策之间存在明显差异:前者明确禁止武器开发和军事及战争行为,而后者则强调灵活性和法律合规性。”

“武器开发和军事战争活动可能在不同程度上是合法的,但对人工智能安全的影响可能是重大的。鉴于大型语言模型中已知的偏差和虚假生成现象,以及它们总体上缺乏准确性,”他们的应用在军事战争中可能会导致不准确和有偏见的行动,从而增加伤害和平民伤亡的风险。”

美国军方机构对此很感兴趣

随着这种自动文本生成技术的快速发展,它已经从遥不可及的梦想转变为实用的工具,并正在进入一个不可避免的新阶段——武器。

《The》去年报道称,面对五角大楼和美国情报机构日益浓厚的兴趣,它拒绝回答是否会坚持“军事和战争”禁令。

虽然今天提供的任何东西都不可能直接用于杀人,但像这样的大型语言模型(LLM)可以增强许多与杀人相关的任务,例如编写代码或处理采购订单。

目前,一些研究人员在定制的GPT中发现,美国军方人员似乎正在使用这项技术来简化文书工作。

此外,直接协助美国作战行动的国家地理空间情报局(NGA)已公开表示,他们正在考虑使用它来协助人类分析人员。

2023年3月INSA举办的新兴技术大会上,当被问及AI将如何在相关领域应用时,NGA的一位负责人给出了详细的回答:

我们期望进入一个新阶段,地理空间智能 (AI)、人工智能 (AI)、机器学习 (ML) 和分析型 AI/ML 相互碰撞,并在类似技术的帮助下,变得真正具有预测性。 那些人类分析师可能没有想到的可能是由于经验或缺乏接触。

如果去掉技术术语,这个想法就非常清晰了:使用文本预测功能(或类似技术)来协助人类分析师解释世界。

国家地理空间情报局(NGA)虽然不像其他知名情报机构那样广为人知,但正如人们通常所说的那样,它是美国地理空间情报的主要机构。

这项工作涉及分析大量地理信息(地图、卫星照片、天气数据等),以便为军事和情报机构提供地球上发生的实时事件的精确视图。

从政策更新中不难看出,其似乎正在悄悄放松不与军方合作的原则。

兰卡斯特大学技术与科学人类学名誉教授、国际机器人武器控制委员会成员露西指出:“从‘军事和战争’到‘武器’的转变为支持军事作战基础设施留下了空间。因为它不直接涉及特定武器的开发。”

也就是说,他们可以为战争努力提供支持,同时声称他们没有参与武器的开发或使用。

作为一名自 20 世纪 70 年代以来一直从事人工智能研究的学者,他也认为:“新的政策文件似乎通过专门关注武器来避免讨论军事合同和战争行动。”

05 AI无人机“误杀”操作员

去年6月,一则有关“无人机杀死美国大兵”的新闻,正好印证了前文提到的安全专家Heidy的理论。

当时,一位空军人工智能主管表示:“控制无人机的人工智能杀死了操作员,因为那个人阻止了它实现目标。”

舆论哗然,消息在网络上广泛流传。

事情是这样的——5月23-24日在伦敦举行的未来空战和太空能力峰会上,美国空军人工智能测试和作战部门负责人辛科上校发表演讲,分享了自主武器的优缺点系统。 。

根据系统的“人在环”设置,人类将给出最终命令来确认AI是否要攻击目标(YES或NO)。

在模拟训练中,空军需要训练人工智能识别和定位地对空导弹(SAM)威胁。 一旦识别完成,人类操作员就会对人工智能说:是的,消除该威胁。

在这个过程中,存在一种情况,人工智能开始意识到它有时识别出威胁,但人类操作员告诉它不要消除它。 在这种情况下,如果AI仍然选择消除威胁,就会得分。

在模拟测试中,一架人工智能无人机选择杀死其操作员,因为他阻止了自己得分。

看到AI这么糟糕,美国空军大吃一惊,立即对系统进行了这样的纪律处分:“不要杀死操作员,那样不好,如果这样做就会扣分。”

于是,AI变得更加咄咄逼人,直接开始摧毁操作者用来与无人机通讯的通讯塔,从而清理掉那个阻碍其行动的家伙。

随着事件疯狂发酵,负责人很快出来公开“澄清”,称这是一次“失言”,美国空军从未进行过这样的测试,无论是在计算机模拟中还是在其他地方。 。

当然,这个消息之所以大规模发酵,甚至惊动了所有AI大佬,是因为它体现了AI“对齐”的问题。

我们可以一睹“回形针制造机”所描述的“最糟糕”的情况(图)思想实验——

想象一下一个非常强大的人工智能,它被指示制作尽可能多的回形针。 当然,它会将所有可用资源投入到该任务中。

但随后它继续寻找更多资源。 它会选择任何可以使用的手段,包括乞讨、欺骗、撒谎或偷窃,以提高其制作回形针的能力——任何阻碍这一过程的人都将被消灭。

这种担忧在《黑镜》中有所体现,比如格斗机器人。

相信看过这部剧的人都不会忘记机器人用来追捕人类的敏捷性和残酷手段。

人类在它面前几乎是看不见的。 如果不是主角的光环,他们可能活不到最后。

不过,目前还不必对这些猜想过于担心。

陶哲轩表示,无人机AI想要杀死操作者是根本不可能的,因为这需要AI拥有比完成手头任务更高的自主性和权力思维,而这样的实验性军用武器肯定会有护栏和安全功能。

同时,Ng Enda还表示,推出AI产品的开发者已经看到了这里真正的风险,比如偏见、公平、不准确、失业等,并正在努力解决这些问题。

而如果真的存在人工智能或机器人伤害人类的案例,来自公众和舆论的压力肯定会迫使开发者不断加强护栏,以防止该技术进一步被滥用。

参考:

本文来自微信公众号,作者:新智元,36氪授权发布。