今天小编分享的科学经验:AGI魔盒,会放出冥王PLUTO还是阿童木?,欢迎阅读。
人机共生,是科幻作品永恒的主题。其中,《冥王 PLUTO》可能是最早探讨人类与机器人如何在冲突中共存的漫画作品。
如果说阿童木是人机共生的 " 和平使者 ",启蒙了几代人对机器人的信任和热爱 , 那么冥王 PLUTO 就是阿童木的反面,一个心怀仇恨的杀戮机器。在《铁臂阿童木》的番外篇《地上最大机器人》中,名叫冥王 PLUTO 的超级机器人,要挑战阿童木在内的全球七大机器人。
这个故事,后来被浦泽直树进一步改编,以更大篇幅和笔墨,描画了人机共存的种种矛盾冲突。
最近,冥王 PLUTO 的故事被奈飞搬上了螢幕,动画《冥王 PLUTO》上线即爆款,豆瓣开分 9.1,IMDb 开分 9.3,口碑如潮。
虽然这部动画的主题,是老生常谈的 " 人机共生 ",但在 2023 年观看,却别有一番滋味。
这一年,大模型的 " 智能涌现 " 展现出了类人级别的推理能力,具身智能让科幻电影中的人机共存加速到来,AGI 的实现也不再是遥不可及。
与此同时,大模型和 AGI 所暴露出的冲击和危险,也渐渐浮出水面。有画师们联名反对 AI 学习自己的作品,OpenAI 政变原因之一就是科学家对 "AI 失控 " 的担忧,而中美 AI 竞争也掀起了一轮轮博弈。
也别忘了更大的世界,很多地区正在陷入动画《冥王 PLUTO》中中东战争类似的战火阴霾之中。
我们所在的现实世界,正在不知不觉地跨越奇点。在不远的未来,人机共生会是一幅怎样的画面呢?AI 会像冥王 PLUTO 一样被用来杀人吗?我们是否做好了准备,去迎接一群 " 十万马力 " 的超级智能机器人呢?
不妨带着童年看阿童木卡通片一样的好奇心,和我们一起开开腦洞吧。
杀戮机器觉醒?
又一次 " 狼来了 "
避免剧透,一句话给大家总结一下动画《冥王 PLUTO》的剧情——机器人在宇宙的中心呼唤爱。
在人类和机器人共同生活的未来,机器人拥有了和人一样的感情和思维能力,可以与人建立幸福的家庭。而数次离奇的谋杀,掀开了人机共存的隐藏矛盾:机器人产生了仇恨的情绪,于是愤怒地举起了枪……
看到这里,你是不是觉得这故事好熟悉?
(《冥王 PLUTO》动画截图)
有大量科幻作品都是这样的:遥远的 3xxx 年,人类社会的科技水平高度发展,人工智能无处不在,某一天机器人像《西部世界》中德洛丽丝那样意识觉醒,发现人类对自己各种欺压,于是开始抗争和复仇。
机器人意识觉醒,成为人类不可掌控的威胁,几乎是所有 " 科技鬼故事 " 的必备设定。不过,冥王 PLUTO 不过是又一次 " 狼来了 "。
首先,即使实现了 AGI 强人工智能,智商和意识也不是一码事。在很长一段时间内,智能机器依然只能通过声音、面部表情、姿态等,模拟人类的情感表达,并不是真的拥有情感体验。更何况,我们距离强人工智能还有不短的距离,最近一项针对 GPT-4 的图灵测试中,得分远不及人类。对 " 机器意识觉醒 " 的恐惧,不过是又一场 " 恐怖谷效应 "。
其次,万一的万一,机器人真的产生了意识,就一定会是恶的吗?显然不是。正如阿童木和冥王 PLUTO 是两个对立阵营,机器人的行为特征也分 " 善 " 和 " 恶 "。凭借今天我们对 AI 技术的了解,以及目前人类和机器人的关系,恐怕机器人并不会感到 " 被人类威胁 " 吧,自然也就不太可能成为什么人类杀手或机器人反叛军团之类的。正如《流浪地球 2》《冥王 PLUTO》等最新科幻作品中,机器人的威胁大多源于网络漏洞、人类的恶意操作,以及算法为了让人类延续下去计算出来的结果 " 好心办坏事 "。
每当能力卓绝的智能体问世,比如 ChatGPT,关于机器 " 超智能 " 的神话就会出现秀智商,叫卖 " 机器智能会超过人类智能 "" 机器会取代人类 " 之类的观点。显然,这些观点都是站不住脚的,再强大的机器也不足以战胜人类的智慧。
只不过,人们总是喜欢相信惊心动魄的故事以及想象中的危险。换个角度想,这种对危险的敏感本能,或许就刻在人类野外求生的 DNA 中。所以,从 " 狼来了 " 到 " 杀戮机器觉醒 ",这种故事始终会让人乐此不疲,换个主角就能重来。
被掩盖的真问题
高度共生的社会危机
当人们都在热议智能机器觉醒的假象风险,也许把真正的危险掩盖住了,而这些真正的风险,才是人机共生的问题所在。
大模型的到来,正在让机器从自动化系统发展成为高度自主系统。
所谓自动化系统,类似扫地机器人、恒温控制器,只需要在可控的环境下,根据固定的目标,执行设定好的任务。而家政机器人、自动驾驶汽车等具身智能,显然就没这么简单了。它们需要在动态变化的物理环境下,准确及时地检测到障碍物,并实时做出恰当的决策和相应的行动,这些高度自治的自主系统,显示出了与人类相似的智能。大模型正在让自主系统的具身智能,变成现实。
听起来很美好,但这个人类和自主系统共生的未来,可能存在安全隐患:
1. 算法黑箱。AI 拥有 " 暗知识 ",无需借助理论或数学分析,就可以做出决策,在地震预测、天气预测等方面做得比人类专家更好。但 AI 并不是真的理解了背后的科学原理和数学模型,如果关键系统不可靠,在生产环节就难以保证安全。比如设计一架飞机的自动驾驶系统,使用数学模型是白盒的,可以很有把握符合安全标准,而算法的黑箱性不能保证足够的安全可靠。
2. 失业问题。自动化程度越高,机器人使用越普遍,失业率就越高。不是所有马车夫都能学会开汽车,许多被自主系统替代的工作岗位是不会再回来的,而需要创造力、难以被 AI 替代的职业,比如编程、艺术创作,只能为少数人提供工作机会。职业结构的变迁,一定会带来失业阵痛,同时阻碍 AI 产业的发展。这一年来大量画师对 AIGC 的反对和抗拒,就是明证。
3. 技术依赖。对于大部分人来说,AI 应用和机器人的到来,一定会让生活变得更加舒适。比如自动配送外卖车、酒店服务机器人,就大大减少了人工劳动。ChatGPT 帮助学生们做作业、写论文。这也意味着,人类会逐渐丧失某些技能。比如唐诗宋词,未来的孩子可能再也不需要背诵它们了,机器人将东西无微不至地送到手边,人的日常活动量也随之减少,带来肥胖等隐患。随着算法预测越来越精准,我们会逐渐依赖 AI 做决策,而不是倾听身边普通人的建议和自己的感受与直觉,而决策-行动-反馈的整个正向机制,也被打断了,让人越来越缺乏自信。人机共存就是 " 温水煮青蛙 ",对技术的过度依赖,并非杞人忧天。
4. 政治冲突。还有一种潜在威胁,来自各国政府和企业组织的猜忌与博弈。对智能技术的管控已经是一个政治问题了,而智能技术为核心的科技竞赛,正在掀起类似冷战时期的政治博弈。
《纽约客》杂志 2023 年 11 月 20 日出版的一篇文章《Why the Godfather of A.I. Fears What He ’ s Built》(人工智能教父为何害怕自己的成果)中,图灵奖得主杰弗里 · 辛顿(Geoffrey Hinton)直言:" 我们不知道人工智能会变成什么样子。" 但当记者问:" 为什么不直接拔掉插头呢?" 辛顿回答:" 因为不同国家之间的竞争。" 而此前,他曾拒绝签署一份呼吁暂停研究人工智能至少 6 个月的请愿书,并表示:" 中国可不会停止研发 6 个月 "。有理由相信,出于政治博弈的考虑,某些政府、企业或科学家,会对人工智能的风险,干脆放任自流。
从人类自治迈向机器自治的人机共生社会,运行机制都要随之变化。或许不会直接导致杀害等灾难,但对就业、文化、政治秩序的冲击,同样会产生安全隐患。
从此刻,掀开 " 潘多拉魔盒 "
你可能会问,既然发现了真正的风险,是不是就能提前做出防范,减少人机共生的摩擦?
从技术层面和社会层面,这个愿望都不太现实。
技术层面,AI 不同于人类历史上任何技术风险的。作为一种自主学习、自主进化的算法,AI 需要不断咀嚼大量数据,进行复杂的内部转换和 " 无监督学习 ",其中的规律和隐秘 Bug 可能都不是人类工程师能及时捕捉到的。我们经常听到程式员讲一个段子:如果一段程式能跑能 work,那就千万不要动它,不要想清理 " 屎山 "。所以,人类未必能够将 AI 成长捏在自己的手心里。就像一年之前,谁能想到 ChatGPT 会 " 智能涌现 ",并让整个世界天翻地覆呢?
社会层面,目前主流国家应对危机的方法,往往不是 " 事前预防 ",而是 " 动态平衡 "。事前预防,需要提前对 " 最坏情况 " 做出评估,然后进行防御性投入,成本是非常高的,一般只会在医疗、自然灾害、战争等方面采用。而强人工智能的风险,危急程度并不算高,甚至有人调侃 " 关键时候把 AI 电源拔了 ",所以这种危机的防范就要考虑成本收益比,不会牺牲收益最大化,追求绝对安全,而是在经济和安全之间,寻找一个动态平衡点。而这种 " 动态平衡 " 的问题,则会让一些脆弱群体,置身于较大的风险之中,比如重复劳动的工人、底层白领、简单知识生产者等,面临被取代的压力。
大模型这条 AI 之路,正在掀开 AGI 强人工智能的 " 潘多拉魔盒 ",会放出冥王 PLUTO 还是阿童木,抑或兼而有之,还是未知数。
既然人类和机器人高度融合共生的社会必然会到来,我们又该依靠什么保持乐观和信心呢?我想,《冥王 PLUTO》或许已经给出了答案,那就是 " 爱 "。
人性的种子,会顽强地在战火和焦土中萌芽,一次又一次重建新世界。