今天小編分享的互聯網經驗:ChatGPT能取代心理治療師嗎?,歡迎閲讀。
圖片來源 @視覺中國
文 | 追問 NextQuestion
自 2015 年以來,移動心理健康應用程式 Koko 一直在嘗試為有需要的人提供眾包服務。給 Koko 發消息,告訴它你對某個工作問題感到内疚,幾分鍾後你就能得到富有同理心的回復,它還會給一些積極的應對建議——這也許很笨拙,但毫無疑問是人性化的。
在你等候的時候,這個應用程式也可能邀請你回復另一個人的困境。為了幫助你完成這項任務,一個名叫 Kokobot 的助手會建議你使用一些簡單的開場白,比如 " 我也有過同樣的經歷 "。
但在去年 10 月,一些 Koko 用户可以選擇接收來自 Kokobot 的更全面的建議。居住在加利福尼亞州蒙特雷市的 Koko 聯合創始人羅伯 · 莫裏斯(Rob Morris)表示,接收這些建議之前會有一個免責聲明:" 雖然我只是一個機器人,但如果是我,可能會這樣回復。"在發出回復之前用户能夠以他們認為合适的方式編輯或修改 Koko 建議的回復。
用户不知道的是,這些回復是由 GPT-3 編寫的。GPT-3 是一種強大的 AI 工具,經由龐大的書面文字訓練集訓練後,它可以處理和生成自然文本。但當莫裏斯在推特上談論這個嘗試性舉措時,卻飽受批評。對此,他感到十分驚訝," 我從未想過會引起如此激烈的讨論。"
70 年來,人們一直在嘗試實現自動化的心理健康治療,其中,對不同形式的聊天機器人的探索約有 60 年。現在,我們亟需提高這些工具的效能,兑現承諾。據估計,全球每 10 萬人中平均只有 4 名精神科醫生;而在大多數低收入和中等收入國家,這個數字還要低得多。
認識到這一差距後,智能手機應用程式開發人員已經構建了數千個在某種程度上起到心理治療作用的移動端程式。據估計,截止 2021 年,市面上約有一到兩萬款移動心理健康應用程式。但是,美國達特茅斯學院技術與行為健康中心的生物醫學數據科學家尼古拉斯 · 雅各布森(Nicholas Jacobson)表示,此類應用程式大多缺乏嚴謹科研證據的支持。将 GPT-3 這樣的大型語言模型及相關聊天機器人 ChatGPT 整合進應用中是一種新的做法,但卻令許多人感到擔憂。
一些人擔心隐私和透明度會受到更大的威脅,或者擔心治療方案會被扁平化以适應數字化的趨勢。還有人擔心安全和法律責任問題。據報道,今年早些時候,一名比利時男子曾與名為 Eliza 的 AI 聊天機器人分享自己的氣候焦慮,但在數周後自殺。他的妻子認為,如果他沒有使用這項技術,現在可能尚在人世。這款機器人由位于加利福尼亞州帕洛阿爾托的 Chai Research 公司開發,該公司未對此事做出任何回應。
美國印第安納大學人類科學史學者漢娜 · 澤文(Hannah Zeavin)警告説,心理健康護理行業如履薄冰。它既引人注目,又脆弱不堪,因為這個行業是出了名的 " 喜歡打破陳規 "。雖然這項技術已經累積發展了幾十年,但人們對新興 AI 工具的興趣不斷膨脹,可能會使其超負荷增長。
自動化療法縱覽
Chai Research 公司的 Eliza 聊天機器人,其名字來自計算機科學家約瑟夫 · 魏岑鮑姆(Joseph Weizenbaum)在 1966 年創建的早期自然語言處理程式。魏岑鮑姆設計的初心是模仿一種名為羅傑斯療法(Rogerian therapy)的心理治療法,該治療方法的根本觀點是:人們有能力解決自己的心理問題,他們只是未能合理地利用和激活自己的潛力。魏岑鮑姆設計的 Eliza 會接收到人類輸入的信息,并鹦鹉學舌似地給出一個回復。選用羅傑斯療法并不是因為他多麼執着于這種治療方案,而是因為它易于編程。此外,他認為 Eliza 也許能夠證明他的假想——人類與機器之間的溝通是流于表面的。
然而,令他驚訝的是,Eliza 在用户群體中反響良好。許多用户賦予了其人格,并且經常渴望與 " 她 " 交談。澤文于 2021 年出版了一本名為《距離療法》(The Distance Cure)的書,書中詳述了 Eliza 之後基于聊天機器人打造虛拟心理治療師的諸多嘗試。因為傳統精神分析高度依賴治療師與患者之間的復雜關系,讓心理治療變得更加經濟實惠的同時觸及更多有需要的人群,成為行業發展趨勢,而這些項目與之不謀而合。二十世紀後半葉,阿爾伯特 · 艾利斯(Albert Ellis)、肯尼斯 · 科爾比(Kenneth Colby)和亞倫 · 貝克(Aaron Beck)等心理學家都在尋求一種以結果為導向的療法——它可以被編入工作手冊、錄制成磁帶或在書店自我療愈類書籍專區進行展示。
這些研究人員的探索最後殊途同歸,逐漸發展出了認知行為療法(CBT)。該療法認為心理問題部分是由于适得其反的思維模式造成的,可以通過改善應對策略将其影響降到最低。
随後,包括科爾比在内的一些心理學家試圖通過用于治療的聊天機器人和階梯式的數字程式來實現 CBT 的自動化。魏岑鮑姆設計的 Eliza 和随後出現的眾多數字化心理治療師為今天開發自動化治療應用程式的人提供了寶貴的經驗教訓:人們很容易向無生命的治療師敞開心扉;在很大程度上,使用者的體驗取決于他們對平台的期望值;在某種程度上,機器人與人類交流的語言總是在最佳療效和編程合理性之間做出妥協。
便攜式診察台
現在,有成千上萬的手機應用程式能夠充當 " 導師 " 或 " 伴侶 " 的角色,或是提供 " 改善情緒 " 的服務。這類應用程式在宣傳營銷時小心翼翼,避免某些可能需要獲得美國食品藥品監督管理局(FDA)等健康機構批準的措辭。即使符合 FDA 對醫療設備軟體的定義,這些應用程式通常也無需提供任何證明其安全性或有效性的數據,只要它們能夠證明自己與已上市產品具有實質等效性即可獲得批準。在這種情況下,許多應用程式雖然暗示具有科學功效,但卻無需提供實質性證據。
澤文表示,許多應用程式很快就采用了 CBT 療法,因為 CBT 療效已被廣泛認可,因此它們會聲稱自己是有科學依據的產品。然而,一項針對 117 個面向抑郁症患者的應用程式調查發現,在十幾個聲稱自己是基于 CBT 療法設計的應用程式中,只有 15% 貫徹執行了相關治療原則。遵循度較低可能是因為這些應用程式融入了多種療法的原則和練習。但另一項針對心理健康應用程式療效宣傳的分析發現,在引用了具體科學方法的平台中,有三分之一是未經驗證的技術。還有一項調研發現,只有 6.2% 的心理健康應用程式會公開療效數據。
雅各布森表示:" 市場上絕大多數的應用程式都沒有做過產品測試。" 這并不是説心理健康應用程式的療效是沒有科學依據的。哈佛大學醫學院數字精神病學部主任約翰 · 托魯斯(John Torous)認為,有些應用程式表現得更好,用户不僅參與度更高,也能不斷改善自己的狀況,而這些應用背後通常都有人類心理治療師提供引導或輔導。一些荟萃分析顯示,這些獲得 " 人類引導 " 的數字心理健康項目的效果與傳統療法相當,甚至更勝一籌。
而支持非引導式應用程式的有力證據要少得多。這類應用确實也有一定的科研基礎,但托魯斯認為,未經嚴格控制,許多研究成果會受到數字安慰劑效應的影響,即人們往往會傾向于信任自己的設備和技術,從而誇大一款應用的實際功效。
自動化心理治療師
Koko 并不是第一個在心理健康領網域應用 AI 技術的平台。總的來説,基于機器學習的 AI 技術已經在心理健康領網域得到了三方面的應用與研究。
第一個應用是使用 AI 來分析治療幹預措施,以對其進行微調。有些平台會利用心理咨詢的記錄來訓練自然語言處理的 AI 模型,其中比較知名的是 Lyssn 和 ieso。前者是美國華盛頓大學的科學家們開發的程式,能夠基于對話雙方所表達出的同理心、CBT 幹預治療的應用等 55 個指标,來分析對話。後者來自英國劍橋,是一個基于文本的心理治療服務平台。該平台已經分析了超過 50 萬次的心理咨詢,并通過跟蹤咨詢結束後的效果來确定最有效的幹預措施。兩者本質上都是為數字治療師記錄了每次診療的表現,都旨在最終提供一個實時的工具:一部分扮演咨詢助理的角色,還有一部分充當評分監督員。
AI 的第二個應用是在診斷領網域。一些平台可以通過掃描一個人的病歷,發現此人有自殘或自殺的念頭,如針對美國退伍老兵的 REACH VET 項目。托魯斯表示,診斷工作可能是 AI 在心理健康領網域最具前景的應用方式,盡管大多數平台剛起步的時候需要更多的評估。有些平台已經陷入了困境。今年早些時候,MindStrong,一個已經誕生 10 年的應用程式申請了破產。該公司設立的初衷是利用 AI 來識别抑郁症的早期标志物,盡管早期投資者們對此熱情洋溢,并且其中一個聯合創始人還是知名科學家——美國國家精神衞生研究所的前所長湯姆 · 因澤爾(Tom Insel),該公司還是沒能逃過破產的命運。
AI 的最後一類應用可能最接近科爾比等 CBT 先驅所希冀的設計理念,也是讓人們對 Koko 實驗感到恐懼的地方:打造一個完全數字化的治療師,用 AI 來指導治療。盡管 Koko 可能是第一個使用先進的生成式 AI 的平台,可以創造出完全原創的對話,但其實在數年前 Woebot、Wysa 和 Tess 等應用程式就已經開始在治療性聊天機器人中使用機器學習了。但托魯斯表示,這些平台可能是由基于檢索的決策樹驅動的:本質就是一個流程圖,AI 通過記錄對話路徑的标記來判定下一步,通過一組既定的反應對其進行引導。
由 AI 驅動的治療性聊天機器人需要更可靠的數據基礎。Koko 創始人最近在推特上宣布的新嘗試缺乏公開的治療數據,用以説明其療效的指标也很少。它沒有為此類機器人的療效增添證據。相反,這一舉措暴露了 AI 技術相關的倫理問題。值得注意的是,許多倫理問題并不是 AI 領網域特有的,而是新興技術所要共同面對的。
其中一個問題是透明度。傳統的、面對面的治療和自動化的療法在留住病人方面都有既得利益。這些應用程式的中位留存率通常會在 2 周内下降到 4% 以下,意味着數字治療平台有很大的改進空間。留住病人的激勵手段本身就面臨着十分復雜的倫理問題。拿廣受歡迎的移動治療平台 TalkSpace 來説,它曾要求治療師在與病人的讨論中插入一段腳本,以宣傳其視頻聊天功能,這一做法遭到了抨擊。治療性 AI 聊天機器人在編程時優先确保病人留存率的倫理規範就更加模糊了,特别是在機器人可以學習其他用户體驗的前提下。
另一個問題是隐私性。隐私是所有治療的首要考慮因素。然而,在 3 月初,治療性應用程式 BetterHelp 因涉嫌與廣告商分享敏感用户信息而被美國聯邦貿易委員會罰款 780 萬美元。3 月底,心理健康初創公司 Cerebral 承認将 310 萬人的數據泄露給第三方平台,如谷歌、Meta 和 TikTok。
随着機器學習成為越來越多心理健康平台的基礎,平台設計者們需要更多敏感數據來訓練 AI 模型。據 Mozilla 基金會分析,近 70%的心理健康和禱告類應用程式隐私政策都不符合标準,被打上了 "Privacy Not Included(缺乏隐私)" 的标籤。因此,謹慎使用很有必要。
總的來説,數字治療應用市場幾乎沒有明确的标準。盡管不可能每一款主打 " 陪伴 " 或 " 導師 " 的心理健康應用程式都符合适用于傳統治療師的标準,但因澤爾呼籲成立一個新的機構來監督數字心理健康工具。該行業目前所遵循的是一套東拼西湊的标準,比如美國精神病學協會等精神病學團體提出的标準,以及由非營利組織(如 One Mind PsyberGuide)提出的消費者指南。
即使是借鑑循證療法的應用程式也同樣令人擔憂。随着越來越多的平台轉向 AI,這可能進一步鞏固 CBT 作為心理健康幹預的首要選擇。澤文繼承了以往研究者的想法,認為探索自動化治療可以普及心理治療,讓更多人能夠及時接受治療。但理想總是伴随着現實的挑戰。理想情況下,AI 技術能夠讓每個人接受最準确、最有效的診斷和治療。可早在幾十年前魏岑鮑姆就已經發現了自動化治療需要做出的妥協,即如何平衡最佳療法和最容易的編程法。
盡管 AI 有望助力心理健康治療觸及更廣泛的人群,但它在治療方面的應用仍處于初級階段,前進道路上遍布着倫理問題的荊棘。GPT-3 也還沒有智能到為這些問題給出一個答案,正如 Kokobot 的免責説明所述:" 我只是一個機器人 "。
* 原文鏈接:https://www.nature.com/articles/d41586-023-01473-4:
更多精彩内容,關注钛媒體微信号(ID:taimeiti),或者下載钛媒體 App