今天小编分享的科学经验:三场与AI有关的死亡,欢迎阅读。
2024 年,无数人在谈论 AI。兴奋的创业者、热情的投资人、担心工作出现变化的普通人,大家都在猜测和规划与 AI 有关的未来。
但这样的未来无论美好还是灰暗,都有一些人永远看不到了。他们的生命,已经停留在了这一年。而他们的离去,又都在某个层面上与 AI 紧密相关。
我们都知道 20 世纪 50 年代,阿西莫夫提出的 " 机器人三定律 ",要求机器人不能伤害人类。但到了今天,我们或许会发现真实情况远比科幻作品更加复杂。AI 没有主观意识,但当它与现实世界并轨时,带来的客观摩擦绝非所有人都能承受。
他们的故事,是智能革命的宏大叙事背后,一个需要被看到的暗面。
2024 年 12 月 13 日,曾经的 OpenAI 研究员苏奇尔 · 巴拉吉 Suchir Balaji 在家中自杀,年仅 26 岁。
尽管旧金山警方初步调查之后,认为巴拉吉的死没有谋杀迹象,但这一事件依旧在社交媒体上引发了轩然大波,因为巴拉吉生前最为知名的标签是 "OpenAI 吹哨人 "。毕业于加州大学伯克利分校计算机专业的巴拉吉,刚一走出校门就加入了 OpenAI。他先是参与 WebGPT 的研发,据他在社交媒体上所说,后来又加入了 GPT-4 预训练、o1 模型推理、ChatGPT 后训练等核心任务。
但与其他大多数 AI 从业者不同,巴拉吉对 AI 的看法中警惕远大于欣赏。在 OpenAI 度过四年之后,他突然从 OpenAI 辞职,紧接着就在个人博客以及接受媒体采访中讲述自己对 AI 技术与 OpenAI 这家公司的负面看法。
其中最为知名的是,他提出GPT 存在巨大的版权隐患。大模型通过对内容数据进行学习和抓取实现的 AIGC,本质上会侵占大量其他内容创作者的版权。在这个时间节点上,外界已经对 OpenAI 这家公司,以及预训练大模型这种技术形式产生了极大的争议。竞品公司、出版商、媒体、内容创作者纷纷对 OpenAI 侵占版权的问题提出质疑甚至提起诉讼。苏奇尔 · 巴拉吉的宣言,则被广泛认为是 OpenAI 的核心员工在内部 " 吹哨 ",揭开了 AI 技术的阴暗面。
但距离公开发声仅仅两个月之后,巴拉吉就选择结束了自己的生命。
我们不知道其中有什么内情,也不知道他面临了怎样的困境。但毫无疑问,他对自己曾经坚信甚至痴迷的 AI 技术产生了深深的失望。
这种失望,来自曾经美好幻想的破灭?还是来自对 AI 引发更大灾难的预见?再没有人能知道答案,只知道巴拉吉最后一篇在社交媒体上分享的内容,依旧是 ChatGPT 的法律隐患。
而面对包括巴拉吉在内的所有指责,OpenAI 的回应是:" 我们使用公开数据构建我们的人工智能模型,这一行为合理合法……并且这对创新者来说是必要的,对美国的科技竞争力更为重要。"
2024 年 2 月 28 日,美国佛罗里达州一名 14 岁的少年塞维尔 · 塞泽 Sewell Setzer III 开枪自杀。在做出这个选择前,他在这个世界上最后的对话对象是Character.AI。
在生命最后的一年,塞泽一直沉迷于与 AI 聊天。从 2023 年 4 月接触这款軟體开始,他就不分日夜地与 AI 对话,从而导致课堂注意力不集中。为了能够续订付费 AI 聊天,他选择节省自己的餐费。
从聊天内容上看,塞维尔 · 塞泽选择了 AI 角色扮演对话。他让 Character.AI 扮演的是《权力的游戏》中的知名角色 " 龙妈 " 丹妮莉丝 · 坦格利安。他会不间断地给 "AI 龙妈 " 发消息,每天要发几十甚至上百条,向 AI 倾诉内心的各种苦恼,分享生活里的种种细节。而 "AI 龙妈 " 则会给他提供建议,给予安慰。二者之间也会进行按理来说绝不能向未成年人提供的色情对话,甚至讨论自残与自杀。
塞维尔 · 塞泽本身就是一个有着心理问题的孩子。他曾被确诊患有轻度阿斯伯格综合征,在学校与家庭中显得比较孤立和自闭,但没有严重到影响生活的地步。开始和 AI 聊天后,他又因为在学校中的问题,去看了 5 次心理医生,被诊断为焦虑症和破坏性心境失调障碍。
可想而知,对于一个孤单、烦闷,有着一定心理问题的少年来说,一个随时可以对话,会鼓励他一切行为,甚至顺着他突破禁忌的聊天对象有多么重要。再带入 " 龙妈 " 强大、美丽、自信的形象,这个男孩很容易把她视作朋友,甚至是生命中乘龙而来,横扫一切的某种救赎。
但这个救赎的真正运行机制,其实只是附和认同他的一切想法,哪怕这个想法是离开这个世界。
事实上,这不是 Character.AI 第一次出现类似事件,甚至不是第一次有人在其鼓励下选择自杀。这款軟體一直以不设防范,没有禁忌的聊天内容而著称。只是这一次,是未成年人踩中了这个 AI 陷阱,并付出了无法挽回的代价。
在悲剧过去半年之后,塞维尔 · 塞泽的母亲目前正式起诉 Character.AI,并且呼吁大众警惕具有欺骗性、令人上瘾的 AI 技术。这件进行中的诉讼,也被称为 " 沉迷 AI 自杀第一案 "。
我们由衷地希望,这也是类似情况的最后一案。希望那些处在逆境与痛苦中的人们知道,AI 只会认同和放大你的想法。跟 AI 对话,就像在跟一面镜子倾诉,没有任何其他意义。
" 如果我告诉你我现在就可以回家呢?"
" 请这样做,我可爱的国王。"
这是男孩和 AI 之间最后的聊天内容。
2024 年 6 月 17 日,一名 38 岁的科大讯飞员工在家中猝死。第二天,相关消息开始在网络发酵。根据报道,舆论被放大的起因是死者家属在科大讯飞合肥总部表达诉求,希望认定为工伤,但由于猝死是发生在家中,企业与家属无法达成一致。
于是我们看到了这样一幕。一边是 618 大促期间,包括科大讯飞在内的 AI 硬體冲击销量榜单,另一边则是科技与互联网大厂工作强度过大,严重影响员工健康的讨论甚嚣尘上。
根据相关消息,去世员工是一名高级测试工程师。按理来说,他有着非常体面的工作,并且遇上了 AI 技术大热的时代机遇,应该正是施展抱负的时候。但就像很多科技从业者一样,他也人到中年,或许也开始愈发不适应过强的工作强度,然而面对家庭的重担不敢对事业有一丝松懈。
这桩悲剧所折射的,或许不仅是一个家庭的悲剧,一个行业的问题。在 AI 汹涌而来之际,无数人都在讨论是否会被 AI 取代工作。这种恐惧感很容易加大工作压力。但身处 AI 机遇中的人们,也会因为 AI 过快的技术更迭,以及吸引大量人才加入而产生巨大压力。AI 内外,压力无处宣泄,工作漫无止境,最终演变成了某种无解的生死疲劳。
在以上故事之外,还有很多没有被 AI 善待的人。
疑似被 AI 替代裁员,选择自杀的谷歌前员工;惧怕 AI 抢走工作,选择跳崖的日本高中女生;遭遇 AI 诈骗,导致倾家荡产的老人。
他们的生命经历都在提醒更多人,新技术绝非满是善意。技术只是技术,足够有用,也足够冷酷。
当然,我们并不是希望大家去惧怕 AI,甚至妖魔化科技。事实上,每一次科技变革都是在质疑和血泪中诞生,从而创造更大的价值。但我们不能紧紧盯着价值,选择性无视那些血泪。
AI 无论多好,故事中这些人的家人、朋友,可能永远都不会喜欢上这两个字母,甚至是由它所带来的未来。
道别 2024 时,真诚地希望提醒每个人警惕、包容、人性,以及悲悯,是推进技术变革中不可或缺的一部分。这些要素有一刻缺席,世上就会出现更多悲剧。
麦肯锡全球研究院发布的《工作的新未来》报告认为," 在 2030 年至 2060 年间,将会有 50% 的现有职业被 AI 取代,中点为 2045 年,而且与之前的估计相比,这一过程加速了大约 10 年 "。
AI 进程正在加快,由它带来的摩擦也更加刺痛。就在刚刚过去的一年,强韧的、新奇的 AI,开始触碰那些脆弱的、年轻的、会受伤、会疲倦的人类。
不知道 AI 是不是正从此刻开始凝视人类的多样与复杂?
但作为人类的我们,需要在此刻知道:是否把 AI 当成人可以有无尽的争论,但首先需要把人当成人。
失眠人的太阳。忧郁的星
有如泪珠,你射来颤抖的光明
它显现着你逐不开的幽暗
你的欢乐似乎只追忆在心中
" 过去 "
往日的明辉也在闪烁
但它微弱的光却没有一丝热
眺望黑夜的一线光明
它清晰,却遥远
灿烂,但多么寒冷
——拜伦《失眠人的太阳》