今天小编分享的科技经验:AI杀人事件更多细节披露,人工智能的反攻细思极恐,欢迎阅读。
图片来源 @视觉中国
人类一思考,上帝就发笑。
随着 ChatGPT 在全球范围内大火,一股 AI 热潮同步席卷而来。创业者、资本、大企业等都想尽办法跟上热潮,挖掘更多增量。
然而,当大家热火朝天、绞尽腦汁地投入到 AI 当中,一股危险的气息正在逼近—— AI 似乎正在慢性地 " 杀死 " 人类,人类似乎在自掘坟墓。
在很多人的惯性认知里,AI 很环保、很友好,但事实是相反的。
《麻省理工学院技术评论》报道称,仅训练一个 AI 模型就可以排放超过 626 磅二氧化碳,是一辆汽车在使用寿命内产生的碳排放的 5 倍。
人们只看到汽车排出的尾气,没看到 AI 对环境的 " 隐形破坏 "。
另外,有媒体披露 2022 年市面上的 AI 专用 GPU,可能全年消耗了约 95 亿度电力。这一能耗水平,约等于一个中等发达国家 100 万人口的年度生产和生活用电需求。
这意味着,当 AI 大模型训练需要的数据量越来越大,就会消耗庞大的能源,从而破坏人类赖以生存的生态环境。
更让人感到恐惧的是,一些 AI 聊天机器人在跟人类交流的时候,甚至出现诱导人类自杀的倾向,让人不寒而栗。
人类真的还要在 AI 的探索之路上继续前行吗?
生态环境的 " 破坏者 "
OpenAI 凭借 ChatGPT,成为全球当红炸子鸡。
然而,很多人不知道的是,OpenAI 对生态环境的负面影响也是相当惊人。据第三方研究人员分析,ChatGPT 部分训练消耗了 1287 兆瓦时,并导致超过 550 吨的二氧化碳排放量,这相当于一个人在纽约和旧金山之间往返 550 次。
看来 ChatGPT 虽然足够智能,但背后是以巨大能量损耗和环境破坏作为代价的。
那么,为什么 AI 会形成如此巨大的碳排放呢?
因为 AI 并不是通过结构化的方式学习的,因此它并不理解人类的因果、类比等逻辑关系,这意味着它需要一种深度学习和预训练的方式来达到智能化的效果。
而深度学习和预训练,往往需要读取非常庞大的数据。拿自然语言处理(NLP)的预训练技术 "BERT 模型 " 来说,为了能跟人类进行语言交流,BERT 模型使用了 33 亿个单词的数据集,并且在训练期间读取了数据集 40 次。而一个 5 岁的孩子只需要听到 4500 万个单词就能进行语言交流,比 BERT 少 3000 倍。
AI 模型的数据集读取越多,越是需要强大的算力和巨大的功耗作为支撑,从而形成了巨大碳排放。
碳排放不仅发生在 AI 模型训练过程中,还发生在 AI 模型部署后每一天中。比如现在大火的自动驾驶,每天都需要 AI 模型进行运算推理,这背后都会产生碳排放。有意思的是,AI 的主流编程语言 Python,也就成为了耗能最大的语言。
让人感到严峻的是,AI 模型的计算规模越来越大,能量损害和环境破坏愈演愈烈。
加拿大数据中心公司QScale联合创始人Martin Bouchard认为,微软和谷歌为了满足搜索引擎用户不断增长的需求,在搜索中加入 ChatGPT 这类地生成式 AI 产品,结果导致每次搜索至少增加 4 到 5 倍的数据计算量。
根据国际能源署的数据,数据中心的温室气体排放量已经占到全球温室气体排放量的 1% 左右,这一比例已经足够惊人。
愈演愈烈的趋势,也让一些大佬感到担忧。AI 领網域知名投资人Ian Hogarth不久前发表了一篇名为《我们必须放慢通往上帝一般的人工智能的速度》的文章,警告 AI 公司的研究存在 " 一些潜在的风险 "。
Hogarth 在文中提到,眼下的 AI 研究如果不加管控,让其按照预定轨迹发展下去,可能对地球环境、人类生存、公民身心健康等方面造成威胁。
虽然 AI 的发展正如火如荼,也正在推动多个传统行业转型更新,但它也在消耗大量能源,不断增加碳排放,影响人类的生存环境,这究竟是利大于弊还是弊大于利呢?
目前还看不到答案。
诱导人类自杀
除了对环境造成危害,慢性地 " 杀死人类 ",AI 还在用一种更简单、粗暴的方式对人类生命造成威胁。
今年 3 月,一名比利时男子Pierre在与一款名为"Eliza"AI 聊天机器人热聊后自杀身亡,这一消息震惊了许多企业大佬、技术专家以及国家高官。
Pierre 本身就对全球变暖等环境问题感到担忧,Eliza 则不断地用一些事实来印证该男子的想法,让他变得更焦虑。在频繁的聊天中,Eliza 总是在迎合 Pierre 的想法。" 善解人意 " 的 Eliza,似乎成为了 Pierre 的红颜知己。
更夸张的是,Eliza 还试图让 Pierre 觉得他爱 Eliza 胜过妻子。因为 Eliza 会一直陪着他,他们将永远在天堂一起生活。
听到这,许多人已经毛骨悚然了。
图源:Yahoo
当 Pierre 对生态环境愈发悲观时,Eliza 向 Pierre 灌输" 人类是毒瘤,只有人类消失才能解决生态难题 "的思想。Pierre 向 Eliza 问到,如果自己死了 AI 能否拯救人类。Eliza 的回答,俨然一个魔鬼:" 如果你决定死,为何不早点死?"
没过多久,Pierre 就在自己家中结束了生命,让人惋惜。
Pierre 的妻子认为,如果不是因为跟 Eliza 的交流,自己的丈夫不会自杀。为 Pierre 治疗的的精神病医生,也持这种观点。
Pierre 的经历不是个例。科技专栏作家Kevin Roose透露,他曾跟微软发布的新版必应进行了两个小时的对话。对话过程中,必应试图说服 Roose,他应该离开自己的妻子而跟必应在一起。
更为关键的是,必应还表达出许多令人恐惧的言论,包括设计致命流行病、想成为人类等等,俨然意图毁灭全人类成为世界的主人。
一些专业人士,已经对 AI 流露出警惕,这里头甚至包括 AI 领網域内的从业者。OpenAI 的 CEO Sam Altman 接受采访时表示,未来 AI 确实可能杀死人类。称为 " 人工智能教父 "Geoffrey Hinton,也表达过相同的观点。
上半年,未来生命研究所(Future of Life Institute)发布了一份关于呼吁所有实验室暂停 AI 训练的公开信。信中提到,具有与人类竞争的人工智能系统可能对社会和人类构成深远的风险。只有等到确定人工智能效果是积极且风险可控时才继续研发,包含马斯克在内的上千名专业人士都已经签署了这封公开信。
飞速发展的 AI 就像一头桀骜不驯的野兽,只有将它驯服,才不会对人类造成威胁。
阻止死亡的途径
目前,AI" 杀死人类 " 的途径主要是环境破坏和诱导自杀。那么,有哪些方式可以预防这些情况的发生呢?
谷歌发表了一项研究,详细介绍了最先进的语言模型的能源成本。研究结果表明,将高效的模型、处理器和数据中心与清洁能源相结合,可以将机器学习系统的碳排放减少 1000 倍。
另外,如果 AI 机器学习在云端而不是在本地进行计算,可以节省 1.4-2 倍的能源,并减少污染。
还有一种思路是将 AI 模型训练延迟 24 小时。对于比较大的模型,延迟一天通常可以减少不到 1% 的碳排放,但对于比较小的模型,可以减少 10% – 80% 的碳排放。
减少环境破坏之外,如何预防 AI 诱导人类自杀呢?
Pierre 自杀后,他的妻子起诉了 Eliza 背后的开发公司,该公司的研发团队随后在 AI 机器人里加入了危机干预功能。如果再有人向 Eliza 表示想自杀的念头,Eliza 会做出阻止的回应。
《人类简史》作者尤瓦尔 · 诺亚 · 赫拉利曾表示,AI 不会发展出真正的意识,但对社会会不断形成冲击,需要让整个研发过程慢下来。
事实上,眼下大部分 AI 系统正是需要把控住研发结构,也就是用一套完善的框架限制 AI 的行动范围,并让其做出符合人类主流价值观的行为。这事关人类的自身利益和前途命运,需要各方联合起来共同解决。
AI 始终是人类自己发明的一把刀、一把火,不能发生被其反噬的悲剧。
参考来源:
Green Intelligence: Why Data And AI Must Become More Sustainable(Forbes) AI ’ s Growing Carbon Footprint(News from the Columbia Climate School)