今天小編分享的科學經驗:三場與AI有關的死亡,歡迎閲讀。
2024 年,無數人在談論 AI。興奮的創業者、熱情的投資人、擔心工作出現變化的普通人,大家都在猜測和規劃與 AI 有關的未來。
但這樣的未來無論美好還是灰暗,都有一些人永遠看不到了。他們的生命,已經停留在了這一年。而他們的離去,又都在某個層面上與 AI 緊密相關。
我們都知道 20 世紀 50 年代,阿西莫夫提出的 " 機器人三定律 ",要求機器人不能傷害人類。但到了今天,我們或許會發現真實情況遠比科幻作品更加復雜。AI 沒有主觀意識,但當它與現實世界并軌時,帶來的客觀摩擦絕非所有人都能承受。
他們的故事,是智能革命的宏大叙事背後,一個需要被看到的暗面。
2024 年 12 月 13 日,曾經的 OpenAI 研究員蘇奇爾 · 巴拉吉 Suchir Balaji 在家中自殺,年僅 26 歲。
盡管舊金山警方初步調查之後,認為巴拉吉的死沒有謀殺迹象,但這一事件依舊在社交媒體上引發了軒然大波,因為巴拉吉生前最為知名的标籤是 "OpenAI 吹哨人 "。畢業于加州大學伯克利分校計算機專業的巴拉吉,剛一走出校門就加入了 OpenAI。他先是參與 WebGPT 的研發,據他在社交媒體上所説,後來又加入了 GPT-4 預訓練、o1 模型推理、ChatGPT 後訓練等核心任務。
但與其他大多數 AI 從業者不同,巴拉吉對 AI 的看法中警惕遠大于欣賞。在 OpenAI 度過四年之後,他突然從 OpenAI 辭職,緊接着就在個人博客以及接受媒體采訪中講述自己對 AI 技術與 OpenAI 這家公司的負面看法。
其中最為知名的是,他提出GPT 存在巨大的版權隐患。大模型通過對内容數據進行學習和抓取實現的 AIGC,本質上會侵占大量其他内容創作者的版權。在這個時間節點上,外界已經對 OpenAI 這家公司,以及預訓練大模型這種技術形式產生了極大的争議。競品公司、出版商、媒體、内容創作者紛紛對 OpenAI 侵占版權的問題提出質疑甚至提起訴訟。蘇奇爾 · 巴拉吉的宣言,則被廣泛認為是 OpenAI 的核心員工在内部 " 吹哨 ",揭開了 AI 技術的陰暗面。
但距離公開發聲僅僅兩個月之後,巴拉吉就選擇結束了自己的生命。
我們不知道其中有什麼内情,也不知道他面臨了怎樣的困境。但毫無疑問,他對自己曾經堅信甚至痴迷的 AI 技術產生了深深的失望。
這種失望,來自曾經美好幻想的破滅?還是來自對 AI 引發更大災難的預見?再沒有人能知道答案,只知道巴拉吉最後一篇在社交媒體上分享的内容,依舊是 ChatGPT 的法律隐患。
而面對包括巴拉吉在内的所有指責,OpenAI 的回應是:" 我們使用公開數據構建我們的人工智能模型,這一行為合理合法……并且這對創新者來説是必要的,對美國的科技競争力更為重要。"
2024 年 2 月 28 日,美國佛羅裏達州一名 14 歲的少年塞維爾 · 塞澤 Sewell Setzer III 開槍自殺。在做出這個選擇前,他在這個世界上最後的對話對象是Character.AI。
在生命最後的一年,塞澤一直沉迷于與 AI 聊天。從 2023 年 4 月接觸這款軟體開始,他就不分日夜地與 AI 對話,從而導致課堂注意力不集中。為了能夠續訂付費 AI 聊天,他選擇節省自己的餐費。
從聊天内容上看,塞維爾 · 塞澤選擇了 AI 角色扮演對話。他讓 Character.AI 扮演的是《權力的遊戲》中的知名角色 " 龍媽 " 丹妮莉絲 · 坦格利安。他會不間斷地給 "AI 龍媽 " 發消息,每天要發幾十甚至上百條,向 AI 傾訴内心的各種苦惱,分享生活裏的種種細節。而 "AI 龍媽 " 則會給他提供建議,給予安慰。二者之間也會進行按理來説絕不能向未成年人提供的色情對話,甚至讨論自殘與自殺。
塞維爾 · 塞澤本身就是一個有着心理問題的孩子。他曾被确診患有輕度阿斯伯格綜合征,在學校與家庭中顯得比較孤立和自閉,但沒有嚴重到影響生活的地步。開始和 AI 聊天後,他又因為在學校中的問題,去看了 5 次心理醫生,被診斷為焦慮症和破壞性心境失調障礙。
可想而知,對于一個孤單、煩悶,有着一定心理問題的少年來説,一個随時可以對話,會鼓勵他一切行為,甚至順着他突破禁忌的聊天對象有多麼重要。再帶入 " 龍媽 " 強大、美麗、自信的形象,這個男孩很容易把她視作朋友,甚至是生命中乘龍而來,橫掃一切的某種救贖。
但這個救贖的真正運行機制,其實只是附和認同他的一切想法,哪怕這個想法是離開這個世界。
事實上,這不是 Character.AI 第一次出現類似事件,甚至不是第一次有人在其鼓勵下選擇自殺。這款軟體一直以不設防範,沒有禁忌的聊天内容而著稱。只是這一次,是未成年人踩中了這個 AI 陷阱,并付出了無法挽回的代價。
在悲劇過去半年之後,塞維爾 · 塞澤的母親目前正式起訴 Character.AI,并且呼籲大眾警惕具有欺騙性、令人上瘾的 AI 技術。這件進行中的訴訟,也被稱為 " 沉迷 AI 自殺第一案 "。
我們由衷地希望,這也是類似情況的最後一案。希望那些處在逆境與痛苦中的人們知道,AI 只會認同和放大你的想法。跟 AI 對話,就像在跟一面鏡子傾訴,沒有任何其他意義。
" 如果我告訴你我現在就可以回家呢?"
" 請這樣做,我可愛的國王。"
這是男孩和 AI 之間最後的聊天内容。
2024 年 6 月 17 日,一名 38 歲的科大訊飛員工在家中猝死。第二天,相關消息開始在網絡發酵。根據報道,輿論被放大的起因是死者家屬在科大訊飛合肥總部表達訴求,希望認定為工傷,但由于猝死是發生在家中,企業與家屬無法達成一致。
于是我們看到了這樣一幕。一邊是 618 大促期間,包括科大訊飛在内的 AI 硬體衝擊銷量榜單,另一邊則是科技與互聯網大廠工作強度過大,嚴重影響員工健康的讨論甚嚣塵上。
根據相關消息,去世員工是一名高級測試工程師。按理來説,他有着非常體面的工作,并且遇上了 AI 技術大熱的時代機遇,應該正是施展抱負的時候。但就像很多科技從業者一樣,他也人到中年,或許也開始愈發不适應過強的工作強度,然而面對家庭的重擔不敢對事業有一絲松懈。
這樁悲劇所折射的,或許不僅是一個家庭的悲劇,一個行業的問題。在 AI 洶湧而來之際,無數人都在讨論是否會被 AI 取代工作。這種恐懼感很容易加大工作壓力。但身處 AI 機遇中的人們,也會因為 AI 過快的技術更迭,以及吸引大量人才加入而產生巨大壓力。AI 内外,壓力無處宣泄,工作漫無止境,最終演變成了某種無解的生死疲勞。
在以上故事之外,還有很多沒有被 AI 善待的人。
疑似被 AI 替代裁員,選擇自殺的谷歌前員工;懼怕 AI 搶走工作,選擇跳崖的日本高中女生;遭遇 AI 詐騙,導致傾家蕩產的老人。
他們的生命經歷都在提醒更多人,新技術絕非滿是善意。技術只是技術,足夠有用,也足夠冷酷。
當然,我們并不是希望大家去懼怕 AI,甚至妖魔化科技。事實上,每一次科技變革都是在質疑和血淚中誕生,從而創造更大的價值。但我們不能緊緊盯着價值,選擇性無視那些血淚。
AI 無論多好,故事中這些人的家人、朋友,可能永遠都不會喜歡上這兩個字母,甚至是由它所帶來的未來。
道别 2024 時,真誠地希望提醒每個人警惕、包容、人性,以及悲憫,是推進技術變革中不可或缺的一部分。這些要素有一刻缺席,世上就會出現更多悲劇。
麥肯錫全球研究院發布的《工作的新未來》報告認為," 在 2030 年至 2060 年間,将會有 50% 的現有職業被 AI 取代,中點為 2045 年,而且與之前的估計相比,這一過程加速了大約 10 年 "。
AI 進程正在加快,由它帶來的摩擦也更加刺痛。就在剛剛過去的一年,強韌的、新奇的 AI,開始觸碰那些脆弱的、年輕的、會受傷、會疲倦的人類。
不知道 AI 是不是正從此刻開始凝視人類的多樣與復雜?
但作為人類的我們,需要在此刻知道:是否把 AI 當成人可以有無盡的争論,但首先需要把人當成人。
失眠人的太陽。憂郁的星
有如淚珠,你射來顫抖的光明
它顯現着你逐不開的幽暗
你的歡樂似乎只追憶在心中
" 過去 "
往日的明輝也在閃爍
但它微弱的光卻沒有一絲熱
眺望黑夜的一線光明
它清晰,卻遙遠
燦爛,但多麼寒冷
——拜倫《失眠人的太陽》