今天小编分享的科技经验:《碟中谍7》的超级AI令人胆寒,现实可能更加凶险,欢迎阅读。
文|林炜鑫
编辑|邓咏仪
在深海里,一艘俄罗斯的潜艇疑似遭到未知鱼雷的攻击,船长下令发射鱼雷作回应。过一会儿敌方潜艇突然消失在雷达里。众人以为是仪器出了点故障,松了口气,不料刚才发出的鱼雷竟然自己拐了弯,将这艘潜艇炸个粉碎。
这是好莱坞新片《碟中谍 7》的第一幕。与以往不同,炸毁潜艇的反派是名叫 " 智体 " 的超级 AI,它无处不在,可以瞬间清除实时视频,冒充任何人的声音,破解人的身份安全码(甚至是指纹码),轻松入侵全世界的赛博空间。
只有一把金属钥匙可以关闭智体。为了争夺钥匙,阿汤哥饰演的主角伊森与智体及其党羽展开殊死搏斗。
阿汤哥的身后就是智体 来源:Paramount Pictures
而在戏外,本月,好莱坞的演员和编剧爆发了一场浩大的罢工示威。这场罢工的一大原因就是,生成式 AI 给影视圈带来的威胁。演员担忧 AI 创建的数字替身终有一天会取代自己,编剧则拒绝可能到来的现实:AI 写剧本初稿,他们来润色修改。
阿汤哥也公开支持好莱坞对 AI 的抵制,向制片商喊话,不要忽视演员对 AI 的担忧。
AI 技术的进步是这个时代无法回避的话题。换个角度想,《碟中谍 7》人与 AI 的对抗,像是好莱坞反抗人工智能的一个隐喻。
人们的恐惧使 AI 的能力被夸大
《碟中谍 7》导演克里斯托弗 · 麦奎里认为,我们当下的时代精神就是技术带来的焦虑,技术如何影响人们的生活。他说,AI 很像冷战时期的核弹,不用强调,每个人都感受到了。
这个故事巧妙地迎合了今天一部人的情绪:对日益进步的 AI 的恐惧和担忧。不过,现在 AI 还远无法达到这种智能程度。
在电影中,智体可能是男主角面对的最可怕的敌人,因为它已经进化到具备自我意识,能预测人类的每一步行动,因此几乎把伊森和他的团队逼入绝境。
令人恐惧的另一个因素是,人类无法知道智体想要什么,它的动机始终处在神秘之中。也许下一部电影将解答这个疑问。但在现实中,AI 本身就是一个巨大的黑箱,没有人有信心解释到底发生了什么。
早在 ChatGPT 在全球爆红时,至少有一部分人坚信,生成式 AI 将造成人类生存威胁。恐惧建立在未知上,但事实是,生成式 AI 目前仍处在早期阶段,它的能力被夸大了。
人工智能有可能获得自我意识,甚至拥有欲望和贪婪吗?牛津大学教授桑德拉 · 瓦赫特否认了这一点,他在接受英国媒体 Evening Standard 采访时称,大众混淆了生成式 AI 和 AGI(通用人工智能)," 没有证据表示我们正在往 AGI 发展,甚至这条路存不存在都不好说。"
阿汤哥手里握着能关闭智体的钥匙 来源:Paramount Pictures
智体可以随时删掉监控里的部分画面,甚至侵入 AR 眼镜,冒充人类的声音。据英国媒体 Evening Standard 报道,IT 安全公司 F-Secure 的专家劳拉 · 康卡拉说,抹去监控录像画面理论上是可行的,但要想做到实时删除,背后需要的计算资源是巨大的,至少现在还办不到。
至于影片开头的潜艇事件,网络安全公司 Dargtrace 的专家托比 · 刘易斯则表示,AI 可能趁潜艇在港口停靠时,或者浮出水面时,通过潜艇的通信渠道进入。
另一个专家詹姆斯反对这个设想,他告诉 Evening Standard,军用潜艇为了隐藏位置,和总部之间的通信渠道会受到严格限制。AI 试图从通信渠道进入,攻击军用计算机系统,污染潜艇的声纳系统,不太可能会发生。" 但这是个很棒的电影故事情节。"
尽管如此,出于对 AI 失控的担忧,越来越多人开始呼吁对其进行监管和限制。早在今年 3 月,马斯克和一系列硅谷名流及科学家共同签署了一封联名信,呼吁各方暂停开发生成式 AI 六个月。这封联名信征集了超过 33000 个人的签名。
他们的担忧有一定道理,毕竟科技进步的速度可能超乎常人想象。一些看似遥远的技术已经变成现实,比如电影里主角常用的指纹识别、无人机设备以及 AR 眼镜等等。
AI 武器化将不可避免
智体失控,本是一场不必要的灾难,然而整部电影中,只有阿汤哥想彻底摧毁它。编剧借一个角色的台词说出真相:不是要消灭它,而是要控制它。
公平地说,AI 威胁人类尚且还早,使用 AI 的人类相互对抗,才是正在加剧的威胁。换句话说,人工智能已经不可避免地涉足到国防军事领網域,甚至被运用在现代战争里。
AI 技术将使战争可能减少人员伤亡。搭载 AI 的无人机可以在复杂环境中导航,并以巨大的精度进行侦查,对目标发起精准打击。这种 " 斩首行动 " 也极具威慑力。据报道,美国国防部正在研发能驾驶战斗机的 AI 机器人。一位军方顾问道格拉斯 · 肖说:" 在未来,无人机的数量将远超武装部队的人数。"
AI 系统将改变战争决策。AI 提供的情报分析,使决策視窗从几天或几小时,缩短到几分钟。斯坦福大学教授赫伯特 · 林接受《纽约 - 时报》采访时说,因为 AI 的运算速度远超过人类,领导层可能过度依赖 AI 的情报。那么,万一 AI 给出虚假情报,甚至做出错误决策呢?
这并非没有先例。早在伊拉克战争期间,美军的导弹系统就曾击落过友军战斗机,事后证明是系统的自主操作。
2020 年中东战场,被称为 " 游荡弹药 " 的无人机不需要人类的远程操作,就能自主巡逻。无人机内置炸药,自动识别地面目标,然后俯冲过去轰炸。AI 自动杀人已经成为现实。如果 AI 将平民误认为恐怖分子,将医院误认为军事基地,后果不堪设想。
为了避免这类悲剧,今年一月,美国国防部在关于使用 AI 武器系统的指令中规定,开发和部署 AI 武器系统必须至少有人为判断。
未来可能出现的 AI 战士 来源:Getty/Ociacia
反对 AI 武器的大有人在。年满 100 岁的基辛格刚出生时,人类的战争还需要用到马匹,现在这位美国前国务卿在思考 AI 战争,他呼吁道,国际社会应该暂停军事化 AI 的发展," 是时候用新的国际法来规范这些技术 "。
但是,暂停的可能性微乎其微,当前紧张的国际局势里,人工智能军备竞赛不可能彻底结束。
五角大楼官员约翰 · 谢尔曼公开表示," 如果我们停下来,海外的潜在对手不会停下来。我们必须继续前进。"
著名导演卡梅隆也有类似的担忧。上周,卡梅隆接受媒体采访时警告道:" 我认为人工智能的武器化是最大的危险,我觉得我们会陷入一场类似核军备竞赛的人工智能竞赛,如果我们不去开发它,其他人肯定会去开发它,然后就会更新。"
目前来看,各国能做的,就是呼吁一下,采取些限制措施,比如 " 负责任地部署与使用人工智能 ";对核武器的所有方面进行严格的 " 人为控制与参与 ",不把发射权交给计算机;在军事 AI 的每个阶段进行严格的人为监督、测试和验证;AI 系统应该从一开始就明确其任务,并且可以被关闭。
7 月 18 日,联合国安理会首次就 AI 威胁国际和平与稳定,召开会议。秘书长安东尼奥 · 古特雷斯说,联合国必须在 2026 年前达成一项具有法律效力的協定,禁止在自动武器中使用人工智能。
说实话,没有人真正知道更新更强大的 AI 技术在军事领網域能做什么。风险与日俱增。仅有的一点好消息是,在探索 AI 军事应用时,大国可能都会更加小心翼翼,这可不是玩笑。