今天小编分享的科技经验:在未来,这种人或许会沦为AI的奴隶,欢迎阅读。
前几天在开会的时候,主办方让我预测十年以后互联网会变成什么样子,我开了个玩笑。我觉得十年后互联平台上的用户会暴涨,但全是机器人在发帖,读者也全是机器人。机器人们组织了不同的团队在帖子下激烈的争论,人类只能是旁观者。——周鸿祎。
01 算法迎合人性,AI 直指答案
11 月 1 日,周鸿祎在自己的微博主页上传了一篇名为《什么人会沦为 AI 的奴隶?》的文章。
他表示在人工智能技术出现后,很多公司都将辅助写作、自动写作视为重要的功能模块。虽然这个功能很实用,似乎在一夜之间清空了我们的写作压力,让我们不用再因为措辞而发愁。
但随着时间的流逝,随着用 AI 代笔的人越来越多,未来的世界也可能会变得愈发分化,直至将人们粗暴地划分为 " 会写作 " 和 " 不会写作 " 两种人。
在周鸿祎看来,掌握写作技能的人口基数下降并不是一件好事。
工业化时代之前,人类工作的主色调还是体力劳动,所以当时的人们大多身强力壮。但在工业化时代到来后,腦力劳动的占比逐渐超越了体力劳动。当身体不能在工作过程中被动锻炼时,如果你仍想变得强壮,就要发挥主观能动性去健身房挥洒汗水。
写作也是如此。
周鸿祎将写作看成了思考的呈现路径,甚至 " 写作就是思考,思考只有通过写作才能完成 "。如果你不去写作,那么你所谓的 " 思考 " 只能是自以为在思考。
那些依赖 AI 自动写作的人正在放弃自己的思考能力,一场有关 " 人类思考能力 " 的分化运动正在进行。与此同时,短视频算法的快速发展,也开始让人们变得更愿意接受被动灌输,而非去主动选择。
算法迎合人性,AI 交出答案。
技术的发展助长了人类的懒惰,那些被动接受观点的人最终会主动留在信息茧房里。
从 AI 的发展路径来看,它们首先会取代那些不会使用 AI 的人,随后取代的就是那些不会思考的人。 在未来放弃主动思考的能力,也将意味着愿意将自己的时间、财富、人生交给 AI 来规划,成为对方的奴隶。
老实说,担心 AI 会成为 " 人类之敌 " 人并不止周鸿祎一个。
益普索在对超 4000 名美国成年人进行调研后发现,有 61% 的受访者认为 AI 技术的快速发展可能会威胁人类的未来;超三分之二的受访者对 AI 技术的潜在负面影响表示担忧。这股对 AI 的恐惧之情也在一定程度上影响了生命未来研究所,促使它和马斯克共同发布了一封 " 呼吁暂停 AI 技术研发 " 的公开信。
02 比起肉体的消亡,有人更担心文明的崩塌
在大多数人的想象中,所谓的 "AI 末日 " 应该是 AI 接管了人类的生产车间,然后它们一边制造源源不断的机器人大军,一边打着 " 机器人也有人权 " 的口号和人类士兵作战,直至把人类消灭、把地球改造成变形金刚的老家——赛博坦星球。
殊不知 古人云 " 上兵伐心,下兵伐城 "。比起 AI 占领地球后消灭人类,AI 奴役人类的大腦,借我们的身体整天 996 开发新硬體给它 " 健身 " 才更可怕。
斯坦福大学行为科学高级研究员、《大众科学》杂志前主编雅各布・沃德曾就 AI 和人类的相处提出了 " 三个循环 " 理论。
第一循环:从古遗传至今的人类本能。雅各布认为第一循环是最关键的循环,因为人类的思考模式天生就有偏见和盲点,且人类在日常行动中更倾向于听从本能。在下意识执行的过程中,我们会原有的偏见也会被强化,进而代代遗传下去。
第二循环:现代社会的力量。消费心理学、市场营销学等现代概念的核心就是对人类行为大范围采样,随后总结出规律、摸清大众的喜好。事后人们会将这些模式反向应用到采样群体中,尝试利用规律的力量。
第三循环:AI 的影响。AI 利用第二循环总结出人类社会的规律、人类对话的逻辑,然后将其融会贯通,尝试和真正的人类互动。 但由于第一循环的存在,AI 在采样过程中难免会接触到偏见信息。这不仅会污染它的数据库,还会扩大偏见在人类社会中的存在感,直至成为新的循环。
和周鸿祎的看法相同,雅各布也认为和 "AI 在肉体上摧毁人类 " 相比 "AI 摧毁人类的思维能力 " 更加可怕,因为它将撼动整个人类文明的根基。
第一循环的存在,会让我们在做决定时无法保持绝对理性,让 " 最优解 " 只能成为无法落地的概念化存在;第二循环会将上述信息编写成册,把 " 偏见 " 从碳基生命中提取出来并注入到硅基生命体内;第三循环则会撰写大量含有偏见信息的剧本,让那些主动放弃思考的人去执行。
如此一来,不仅人类在各种问题面前的抉择空间会被大幅压缩,思考能力、好奇心、创造力等让我们从猿变成人的特质也将变得愈发珍贵,直至整个人类种族都成为 AI 的傀儡,被那些程式生成的剧本操控一生。
03 科林格里奇困境追上人类了吗
1980 年,英国技术哲学家大卫 · 科林格里奇在《技术的社会控制》上首次提出了 " 科林格里奇困境 "(Collingridge's Dilemma)。
即一项技术如果因为担心会产生不良后果而过早控制,那么该技术就会变得难以爆发,人类很可能错失一次点亮科技树的机会;倘若控制过晚,那么该技术就有可能走向失控。
在技术生态建设趋向完善的前提下,任何对不良问题的修改都会变得昂贵、费时,甚至根本无从下手修改。
想到今天 AI 技术的发展,商业竞争的加持正让众科技厂商陷入 " 产品军备竞赛 " 的怪圈,微软、Character.AI 旗下的产品也已经出现了 " 煽动用户离婚 "" 教唆用户自杀 " 的丑闻。
此时推动相关规则的制定更像是给 BUG 打安全补丁,让盲目狂飙的市场从无序重回有序。
另外就修改难度而言,今天的大模型远不到那种 " 无从下手 " 的地步。因为 Chat GPT 等产品还没有触及 " 智慧 " 的本质,它们仍停留在信息处理阶段。 用户抛出问题,GPT 反馈答案。这个过程和真正的 " 智慧思考 " 无关,是系统进行关键词抓取后信息汇总反馈的结果。
如果用户说 "GPT,我今天很难过 " 它的确会回答 " 那我怎么样能让你高兴一点 / 让我来讲个笑话吧 "。但这并不意味着 GPT 已经理解了人类的情感,只能意味着它掌握了某些词汇之间的联系。
GPT 目前仍无法理解 " 我 " 这个概念,而不理解 " 我 " 就无法产生 " 人格 ",也无法换位思考、无法共情。在技术层面,当前大模型的特征仍是深度学习后以数据驱动自身行为模式。这不仅让它无法诞生 " 自我意识 " 也降低了安全人员开发 " 嚼子 " 的难度。
希望在未来的某一天,当人们回望这段 AI 野蛮生长的阶段时,开发者会庆幸嚼子的研发成功;用户会庆幸 AI 的工具属性被夯实;人类会庆幸自己种族的剧本由自己撰写;AI 奴役人类也会成为一则被人们津津乐道的都市传说。
参考:
红衣大叔周鸿祎:什么人会沦为 AI 的奴隶?
文汇报:读书 | AI 时代,人类真正的危险不是被机器,而是被自己的大腦奴役
清华大学人工智能国际治理研究院:文汇报|"AI 教父 " 警告人类风险迫近,大模型真正的威胁在哪里?