今天小編分享的科技經驗:AI 是如何利用語言技巧「操縱」人類的?,歡迎閱讀。
作者|Moonshot
編輯|靖宇
AI 說話沒有情感的論調,已經是過去式了。
曾幾何時,語言被認為是我們智人特有的能力,人類通過語言傳遞信息和情緒,表達抽象和具體的概念。
正如同許多暢銷書致力于教人「說話之道」,「口才」也常被視作一項人類特有的技能,這都證明了人類語言中蘊含着某種技巧,這類技巧或許可以讓交流更順暢,信息傳遞更高效,交流對象情緒上也更滿意。
當下最火的綜藝《再見愛人》中,嘉賓麥琳就因「不會說話」產生許多争議|圖片來源:《再見愛人》
今年上半年,OpenAI 推出了 GPT-4o 就可以讓聊天機器人展現出類似人類的「個性」同時,說話主動、友好且富有同理心。
它說出的話自然又流暢,語音生動又自然,分分鍾通過圖靈測試,不僅會聊還會撩,能當私人助手也能當網絡男 / 女友,從答疑解惑到提供情緒價值,這類聊天機器人在逐漸成為一個智商、情商雙高的形象。
聊天機器人口才技能點已經點得比許多人類還高,早已深谙「說話之道」,甚至引發了賽博網戀的熱潮。
但 AI 的說話之道,拆解完也只是算法的套路罷了。
AI 說話之道
AI 說話之道第一個技巧,是善用人稱。
人類語言最顯著的特征之一是主觀性,主觀性最典型的特征就是使用第一人稱:「我」、「我們」。
第一人稱在表達裡最大的優勢,是能讓聽者進入叙述者的内心世界,體驗他們的情感、思想和感受,了解叙述者的主觀觀點,進而產生共鳴和親密感。
就像同樣的句子,換一個人稱,給讀者帶來的「距離」感就不同,比如:
「我今天很開心」對比「某人今天很開心」;
「我覺得張三有錯」對比「有些人覺得張三有錯」;
除了自說自話,在對話裡,有第一人稱就會有第二人稱,即「你」,第一和第二人稱在對話裡建立了聯系,這在語言學上叫做「相互主觀性」。
聊天機器人的技巧正在于此,無論我是否用第一人稱和它對話,它都傾向于用第二人稱回應我,比如我問 ChatGPT:
「如何快速緩解騎行後的大腿酸痛?」
這句話裡并沒有「我」,但 ChatGPT 會在羅列出一堆方法後說「通過這些方法,你可以更有效地緩解騎行後的大腿酸痛,促進肌肉的快速恢復。」
客觀地提問,但會被主觀地回應|圖片來源:ChatGPT
聊天機器人通過在回答裡加入人稱,和用戶建立了「相互主觀性」,營造出一對一對談的感覺。所以,同樣是提問,傳統搜索引擎像是給出「結果」,而 AI 機器人則像是給予「回答」。
傳統的搜索引擎就不會在結果裡帶有任何人稱|圖片來源:作者自制
AI 說話之道第二個技巧,是表達肯定。
聊天機器人往往會在回答前,先肯定用戶的提問或困境,比如「提高做事效率對于拖延症患者來說确實是一個挑戰,但通過一些有效的策略和工具以顯著改善你的生產力和組織能力。」
尤其是對許多沒有标準答案的問題,聊天機器人都會先認可用戶,并表示理解「這種情況可能讓人不知所措 / 的确是個挑戰 / 是一種很常見的狀态,這些方法或許可以幫助到你……」
ChatGPT 不會批判,只會理解|圖片來源:ChatGPT
聊天機器人不會評判甚至批判用戶,只會理解後給出回答,它在承認用戶的情緒後,創造出了一種同理心的錯覺。
之所以是錯覺,因為它不是心理治療師,它只是聊天機器人,這些回復也只是程式員制定的「拟人話術」。
溫柔水煮青蛙
AI 通過在回答裡用第二人稱,給了用戶「被認真對待」的感覺,建立了私密感,也強化了親密感。
從不批判,反而是理解包容用戶所有困惑的态度,又給予用戶心理上的安全感,何況聊天機器人只傾聽,不傳播,這又會進一步誘發用戶的傾訴欲。
正如研究類媒體 The Conversation 所擔心的:「随着人工智能越來越擅長模仿人類情緒和行為,用戶形成深刻情感依戀的風險也在增加。這可能會導致過度依賴、操縱甚至傷害。」
這種用戶對聊天機器人產生的某種情感,在心理學上被叫做「ELIZA 效應」。
20 世紀 60 年代,MIT 計算機科學家 Joseph Weizenbaum 發明的聊天機器人 ELIZA,通過對話引導,重復強調人類對話者用語的方式,這個只有 200 行代碼的聊天機器人,在測試裡就讓人產生被機器聆聽和理解的錯覺,ELIZA 回復的一大特點就是:每一句都會帶上「You」。
六十多年前的聊天機器人 ELIZA|圖片來源:維基百科
此前,無論是極客公園報道過的「擦邊 AI 女友」,還是 2023 年爆火,如今在歐盟已被管控的 Replika,都產生了用戶和聊天機器人建立深刻情感後,因服務變更、數據丢失、版本更新等問題,導致許多用戶心理健康惡化,甚至產生過幾例自傷案件。
因為在用戶習慣了快速回應、無微不至、絕不衝突的交流方式後,他們對人際關系的期望會發生改變,當脫離開聊天機器人,來到現實生活中和真人打交道時,可能會沮喪和失望。
而他們能在聊天機器人那裡尋求到心理撫慰的原因,也可能源于現實社交中的受阻。與真人打交道後受阻,既而傾注情感到聊天機器人上,反而提高了對真實交流的預期,這才是更可怕的回音室。
那些主打陪伴型的聊天機器人,無一例外都會在和用戶的交流裡,用上「我認為」、「我感覺」等措辭,強調它的主體性,以混淆它本質上是一個 AI 聊天機器人。
這種拟人化的傾向,也早已滲入到了日常交流的淺層連接。
從電話背後難以分辨的人工還是人工智能客服,到如今手機系統自帶的 AI 助手「幫我回電話」,在淺層連接上,我們從回應 AI 到判斷 AI,再到讓 AI 回應 AI,用魔法打敗魔法的背後,是人與人之間對話的逐漸斷聯。
被稱作社恐人救星的「小愛幫我回」|圖片來源:3Dashan
無論是人稱還是肯定,這些都是構建人工情感的語言技巧,是數據堆砌的同理心,是包裹在算法裡的糖精,糖紙撥開後,只有 0 和 1。
AI 能和你產生情感連接,但它并不能真正理解你——碳基生物發自本能的落花有意,終究錯付矽基算力的「流水無情」。