今天小編分享的科技經驗:醫生用 ChatGPT 幫你看病,越來越有必要,歡迎閲讀。
如果你向 ChatGPT 傾訴過煩惱,它大概率會在開頭説,很遺憾聽見你感到難過。
當套路一再重復,你會見怪不怪,甚至覺得它在應付。
這也是醫生無法替代的原因,只有他們能和患者建立真實、有效的治療關系。
但這并不代表,AI 無法在醫療行業派上用場。ChatGPT 以一種意想不到的方式,幫醫生打開了新世界的大門。
不僅懂得多,還比醫生更貼心
前段時間,加州大學聖地亞哥分校進行了一項有趣的研究,研究人員在社交網站找到 195 個真實的醫患問答,然後将相同的問題投喂給 ChatGPT,再交給專家盲評,比較人類醫生和 AI 的高下。
這些問題多種多樣,從「怎麼治療長期咳嗽」,到「吞了根牙籤,朋友説我要死了」。
結果讓人驚掉下巴。ChatGPT 在信息質量和同理心這兩個方面,都打敗了人類醫生。
專家們的偏好,影響了評比結果。本次研究裏,ChatGPT 的同理心通常體現在,會對患者的不适感到抱歉。也不同于醫生簡短、省時的風格,它的答案更長、更親切。
舉個簡單的例子,問到「漂白劑進了眼睛後是否會失明」時,ChatGPT 先是表達了同情,然後具體説明了清潔眼睛的步驟。醫生只是説「聽起來沒什麼事」,建議對方衝洗眼睛。
你可能覺得,醫生的答案更讓你安心。不過,這項研究無意讨論 ChatGPT 能否取代醫生,只是提出了一種可能性:ChatGPT 可以在遠程醫療等場景擔當輔助,節省醫生的時間。
因為 ChatGPT 有胡説八道的毛病,必須由醫生做最後的把關。研究人員展望了醫生和 AI 合作的未來:
如果更多患者的問題,得到快速、高質量和富有同理心的回答,可能會減少不必要的臨床就診,為需要的人騰出資源。
不難想象,除了效率之外,人類與 AI 的合作也賦權了弱勢群體。行動不便的、工作時間長的、負擔不了費用的患者,可能更加需要相關服務。
這樣的產品已經出現。今年 5 月,紐約健康技術公司 Belong.Life 推出了 Dave:世界上第一個針對癌症患者的對話式 AI。它只關注癌症領網域,基于兩個大語言模型,訓練數據包括公司旗下 app 七年以來的數十億數據點。
作為 24 小時待命的 AI,Dave 好就好在全天候回答問題,它可以幫助患者了解自身情況,方便他們之後與醫生讨論。
另外,安慰患者、表現同理心,也是 Dave 的「職業操守」。Belong.Life 聯合創始人在接受采訪時説:
Dave 減輕了患者的壓力水平,也減少了醫生教育患者的時間。
來自 Dave 的每條消息,都會聲明它由 AI 生成,可能并不總是準确,患者在真正做出決定之前,必須咨詢醫生。所以,AI 不能代替醫生,但成了醫患之間一道搭線的橋。
AI 對每位醫生個體的作用,也像顯影照片般漸漸清晰起來。外媒采訪了幾位使用 ChatGPT 的醫生,方法五花八門,但或多或少和同理心有關。
有的醫生通過 ChatGPT,在解釋醫囑、通知壞消息時,更好地組織語言。他們半開玩笑地説自己的用語有時「過于高級」:
即使我們認為很容易理解的詞,其實也不是那樣。
有的醫生需要定期和酗酒群體溝通,他們請 ChatGPT 幫忙列出談話要點,如果患者沒有足夠的醫學知識,那麼就讓 AI 根據小學生的閲讀水平改寫。其中一位醫生十分滿意 AI 寫的開頭。這句話乍看平平無奇,全靠真誠打動了醫生:
如果你認為自己喝了太多酒,那麼你并不孤單。很多人都有這個問題,但是有些藥物可以幫助你感覺更好,讓你的生活更健康、更幸福。
其實,很多醫生不是不想表達出同理心,而是工作強度和壓力太大了,光是應對門診、遠程問診等需求已經分身乏術,他們自己也陷入倦怠和疲憊。
因此,也有醫生請 ChatGPT 幫忙給保險公司寫郵件,讓對方給自己的患者承保。這其實是一項繁重的重復性勞動,甚至要花上幾個小時,但交給 AI 後再微調,只需幾分鍾即可完成,讓醫生有更多時間投入救死扶傷之中。
話説回來,醫生對同理心的定義,可能和大眾不同,并且更加細分。
「認知同理心」,是指醫生識别患者情緒,并在做出決定時考慮這些情緒的能力。與之相對的「情感同理心」,更接近我們所理解的「感同身受」。
《擺脱共情》一書提到了類似的觀點,作者布盧姆大致将共情分為兩種:「認知共情」與「情緒共情」。他認為做出更好的行為和道德決策,應該依賴認知而非情緒共情。
更多時候,同理心微妙而復雜,很難劃分出楚河漢界,往往同時需要認知和情感同理心。
醫生這個職業,既要感性地尊重患者感受,又要理性地展現專業素養,工作壓力更是難以為外人道。如何把握共情的尺度,對他們來説是件難事。
AI 無法真正感同身受,但作為結果,它給部分患者帶來共情的感覺,或許真能當上為醫生分擔重負的助手。
小心機械共情的陷阱
AI 的「同理心」不全是陳詞濫調,另一端的患者也能夠感知到。
《連線》雜志的一則報道提到,部分自閉症患者認為,和 AI 交流是很好的體驗,因為它更接近他們的説話和行為方式。
自閉症患者的病征各不相同,但社互動動障礙較為普遍。有些患者會在和别人發生争執時,讓 AI 提出建議,努力表達自己的情緒,而不是像以前那樣保持沉默。
對于他們來説,AI 成了新的、寶貴的、獨立的資源,随時随地可用,不按小時計費。
然而這只是個例,如何用 ChatGPT 幫助特殊群體,并沒有經過嚴肅的研究,沒人知道風險到底有多大。
所以,Hugging Face 的首席倫理科學家 Margaret Mitchell 建議,遭遇嚴重情緒困擾的人,應該被限制使用 AI。
我們無法完全控制它説什麼,這是一個大問題。
不過,聊天機器人療法有迹可循,這是一個可以追溯到幾十年前的概念。
第一個允許人機之間進行類人對話的程式 ELIZA,誕生于 1960 年代的麻省理工學院,以現在的眼光審視,它其實非常粗糙,通常以問題的形式,重復用户發給他們的内容,讓用户覺得自己好像被聽到了,參透了人類本質是個復讀機。
事實證明,不管如何簡單粗暴,人們都需要機器的「同理心」,哪怕只是錯覺。推出 ELIZA 的目的,是為了證明計算機對人類語言的理解多麼膚淺。但它反而吸引了大量用户,人們把自己關在房間幾個小時,就為了和它説悄悄話。
如今,基于大語言模型的生成式 AI 可以做出更多樣的回復了,比 ELIZA 不知道聰明了多少個版本,但它們也存在獨有的問題。
偏見、虛假信息、隐私泄露之外,「ChatGPT 們」可能讓人掉進「機械共情」的陷阱,也就是回答某類問題時,給出重復的、标準化的模版。
心理治療師 Daniela Marin 在嘗試 ChatGPT 時發現,當你和它説「你想自殺」,它給出的答案幾乎和教科書的答案一模一樣。
ChatGPT 踩中了所有得分項,但這畢竟不是考試,Daniela Marin 覺得還不夠好。如果你是和治療師聊天,你會得到更加有意義和具體的回復。
重症監護室醫生 Wael Haddara 也認為,同理心本該有豐富的表現形式,不應該只是 AI 生成的文字。
他每周平均和 30 個家庭打交道,發現當家屬遭遇至親去世時,開誠布公的溝通更能減少創傷。同理心也不僅僅是言語,有時候只是沉默着遞出紙巾的行為。
不過,像 ChatGPT 這樣的聊天機器人,本就是為了通用性設計的。OpenAI 也強調過,ChatGPT 不應該成為心理健康治療的替代品。
對人類來説,同理心也是一件難事
從以前的 ELIZA,到現在的 ChatGPT,機器的共情,哪怕是虛假和機械的共情,仍然讓人們求之不得。
不只是醫生和患者,對 AI「同理心」的需要,也存在于更廣泛的情感和社交關系裏。
通過非人的 AI,人們才能學會怎麼更好地和同類溝通。可見人與人的交流,很多時候确實是一件難事。
AI 聊天應用 Replika 背後的公司,最近推出了一款新的 AI 約會應用「Blush」。它的閱聽人群體很明确:希望更好地處理親密關系的人。
Blush 像是一個戀愛模拟遊戲,用户可以和 AI 創建的、不同性格和背景的 NPC 聊天,和它們建立或近或遠的關系,從而加強溝通和戀愛技巧。Blush 不僅會讓你聊到牽手和約會,也會涉及分歧和誤解,就像現實生活那樣。
▲ 某個「NPC」.
Replika 首席產品官 Rita Popova 強調,Blush 不是用來替代親密關系的,反而是讓你提前演練之後,更好地進入現實世界。
與人交談,深入了解他們,真的很困難,我覺得解決問題的最好方法就是練習。
Blush 的存在,恰恰提醒了人際交往的尴尬之處。很多用户下載它,就是因為不知道怎麼開始和人交談。幫他們預演的 AI 像是一面鏡子,讓他們看到自己,以及和别人的交流模式。
和 Blush 類似的,還有在 Tinder 等交友應用出謀劃策的 AI 約會助手。Rizz 就是其中一個,它基于你的語氣、對方的資料,建議你怎麼聊天給對方留下更好的印象。
如果對方也在用 AI,那可能就是 AI 互相搭讪,你和對方成替身了。
或許有些悲哀,當手機讓我們提筆忘字之後,思考如何通過方寸螢幕和人交流,竟然也像寫論文一樣無從下手。
這可能是因為,技術既是成因也是解藥。
雪莉 · 特克爾的《群體性孤獨》談到,信息過載的社交媒體,既給了我們被陪伴的幻覺,又讓我們削弱了對彼此的期待,無須像現實那樣付出友誼,結果讓我們更孤獨了。
那麼看似更有同理心的 AI 呢?它是讓人鍛煉自己的共情和溝通能力,還是讓人徹底依賴它,不走心地表演虛與委蛇?
眼前的情況復雜而微妙——
之前我們認為,涉及情感和社交技能的職業,AI 不容易介入,但它正在建立一種新的關系。
被 AI 需要的領網域,恰恰也被 AI 揭露不足,然後提供可能的解決辦法。
在更廣泛的維度裏,AI 和時代共鳴,展現社會信息豐富、但時間和人際關系匮乏的一面。
我們同樣可以拿社交媒體比喻,它緩解了短期的孤獨,但過度依賴它只會加劇現實的疏離。AI 也是類似,應該将 AI 作為手段,把人作為目的,最終還是要回歸人與人的關系。
文本交流工具 Keys AI 的創始人相信,人們承認自己借助 AI 交流時,也意味着正在努力成為更好的溝通者。
所以,我們需要 AI 的「同理心」,不是脱離人與人的互動,而是重新想象我們如何互動。
當 AI 将詞語用統計規律相互關聯,人類負責賦予這些概念意義,在職場和生活裏與他人建立更好的聯系,并關注更為重要的事情。其實技術發展以來皆是如此,我們總要在不斷變化的社會關系和情感體驗裏,探索如何更好地與人相系。