今天小編分享的科學經驗:AI 看病又快有準?醫生都要失業了?緊急提醒……,歡迎閲讀。
拿起手機打開 AI 就能看病?!目前,已經有很多人開始用 AI 工具進行醫療方面的咨詢,醫學領網域的研究人員也早就開始使用 AI 工具進行高效的學習和證據的梳理。
那麼,
AI 真的能代替醫生給人看病嗎?最近,網上關于 "AI 看病 " 的讨論熱度非常之高,仿佛 AI 一夜之間就要代替醫生了。
圖源:網絡
今天,我們從 AI、醫、患三個方面進行梳理,來細致聊聊随着 AI 的不斷進步,将會給醫療本身和醫患關系帶來哪些影響。
GAI 絕不是 " 真理 " 生成器
近幾個月以來,國内一提起 AI(artificial intelligence,人工智能),大家馬上會想到深度求索(DeepSeek),很多熱帖裏都提及到使用 DeepSeek 嘗試解決醫療問題。但這裏需要先厘清一個概念—— GAI(generative artificial intelligence,生成式人工智能),它指的是能夠根據提示詞幫我們 " 寫出一段文字 " 的工具,我們平時用的包括 DeepSeek 在内的,準确來説都屬于 GAI,是 AI 的一種。
這類工具在知識問答等領網域,将發揮出重要作用顯然是毋庸置疑的,但問題的關鍵在于,GAI 工具并非 " 真理 " 生成器,它為用户提供的,有時候可能只是看起來合理但卻與事實不符的信息,這就是所謂的 " 人工智能幻覺 "(具體可參考舊文 AI 有多會一本正經地瞎編?超出你的想象!深度解析大模型的 " 幻覺 " 機制)。
人工智能出現幻覺的原因比較復雜,其中最核心的一個原因在于,這類工具仍缺乏對世界的真實理解和常識判斷,它不能區分訓練數據中的偏差和錯誤,而用于訓練人工智能的大量數據,説到底也仍然是人制造和提供的,那這樣的數據,當然就不可能 100% 可靠。
目前看來,這種人工智能產生的幻覺,只能在一定程度上被減小,而不可能徹底被根除,這似乎有點兒像人類世界不可能消除謊言與犯罪一樣。
所以,如果智能工具的使用者本人,不具備相關領網域的扎實基本功,那就很容易被 GAI 給出的錯誤信息蒙蔽。涉及到醫療決策時,有些失誤就會造成悲劇性的後果。
GAI + 專業指南就能解決問題?
在現代的醫療環境中,高質量的專業指南仍是指導臨床醫生從事醫療活動的重要依據,根據循證醫學專家陳耀龍等人在 AI 領網域的探索和研究,GAI 工具不僅能夠加速文獻篩選、評價和提取等過程,加速指南的制訂流程,還可在推薦意見的形成過程中提供智能輔助,提升指南質量和一致性。
但既往關于指南推廣方面存在的問題,并不會因為 GAI 工具的出現就能得到一攬子的解決。比如在各個國家都存在部分醫生對指南 " 知而不行 " 的問題,更别説有些指南本來就質量不高。這些現象的背後都有着錯綜復雜的原因,我們只能説在理論上 GAI 似乎有望減少這方面的問題,至于程度如何,現階段怕是難有定論。
幾天前,筆者用一例成年女性右下腹痛的病例向 DeepSeek 提問,得到的反饋與當天出版的《新英格蘭醫學雜志》(NEJM)上刊載的有關異位妊娠治療建議相差不多。
也就是説,基于同樣的臨床資料,DeepSeek 給出的診療建議已經跟頂尖醫生的觀點非常接近了。但對于藥物治療,DeepSeek 出現了小小的失誤,它認為該病患 β -hCG 水平較高,不适用甲氨蝶呤治療。
根據最新版的異位妊娠治療指南(2018 年),該患的情形,醫生可以推薦腹腔鏡手術治療或兩劑甲氨蝶呤方案藥物治療,兩種方案各有利弊,都不能説是完美的,這就需要臨床醫生與病患在充分溝通之後共同決策。
根據上述例子,我們不妨假設如下幾種情景:
如果病人在正式與醫生讨論治療方案之前,先從 DeepSeek 這裏得到了一個應手術治療的建議,而且病人對手術這一有創操作并不抗拒,那麼當醫生給出兩個方案之後,病人可能很容易就做出了手術的決策。
倘若病人對手術很恐懼,在拿到 DeepSeek 的建議之後,再與醫生交流,可能也比較容易做出藥物治療的選擇。
但上述情形只是一個相對理想的狀況。首先,該女患者的臨床表現非常典型,這類病例題在醫學生的考試中,都屬于送分題;其次,病人要能準确提煉出來關鍵信息,這不是誰都能做到的;最後,醫生臨床基本功扎實,且真的是以患者利益為中心。
上述條件一旦發生變化,那故事完全就可能是另外一個走向了。
畢竟不是每個人生病都 " 按照 " 教科書,如果症狀不典型,病人叙述病史不準确,醫生基本功不過關且私欲過重,那麼無論病人拿到了 GAI 提供的怎樣的建議,方方面面因素影響下結局都可能不甚理想。
如果 GAI 工具的使用者原本對自己所提出的問題就了解不多,那就極可能被其誤導。如果病人拿到了這樣的建議,遇到堅持循證醫學的醫生,一旦溝通不暢,矛盾恐怕就難以避免了。
如果 GAI 工具給出的建議是大致可靠的,但臨床醫生的知識卻沒有及時更新(就像我們之前提及過的部分醫生對指南的知而不行),這也會產生矛盾。
圖庫版權圖片,轉載使用可能引發版權糾紛
GAI 能一定程度上代替醫生嗎?
有學者認為,面對我國醫療資源分布不均衡、基層醫生數量短缺以及人群慢性病防治不容樂觀的嚴峻形勢,人工智能技術特别是大語言模型的發展能夠為我國基層醫療衞生服務提供創新性的解決方案。
如果這一設想能夠實現,對醫療資源分布不均衡的問題究竟是提供了一個解決方案,還是會拉大原有的差距,其實很難讓人樂觀。就像歷史上無數次發生過的事情一樣,電話的出現讓人際溝通更迅捷了,交通工具的進步讓長途轉運不再是困難,網絡的出現給醫療咨詢提供了新的途徑,可結局幾乎無一例外地均導致了醫療資源的更加集中。
我們假設偏遠地區的醫療機構配了 GAI 工具輔助醫生診療,在理想的情況下,這應該能提高醫生的工作效率,提高診斷的準确性,可如果我們再深想一步,如果當地的醫生在診斷這一步都需要 GAI 的輔助和提醒才能完成,那你覺得該機構有多大把握能治療該疾病呢?
如果條件允許,病人極可能第一時間就會選擇立刻去上級醫院進行後續的治療了。所以,我們有理由擔心,GAI 工具的普及,很有可能再次無意中加劇醫療不平等。
當然,目前也有很多 AI 從業者正在努力深耕醫學領網域,正如自動駕駛技術突破到 L5 階段就能徹底解放司機,也許将來有一天醫療專用 AI 也能夠突破某個門檻,為大眾提供更多選擇。但當下談 "AI 代替醫生 " 顯然為時過早。
另外,從法律的角度來看,患者、醫生以及 GAI 工具三者間法律責任非常模糊。在患者受到傷害的情況下确定法律責任是極其復雜的問題,需要明确的法律法規保障來适當分配責任和保護用户。但這一問題的解決,恐怕只能通過一個影響巨大的新聞事件來推動,人類不大容易在巨大的悲劇出現之前就想到預防或解決方案,這一類代價恐怕是繞不過去的,只能走着看。
不過,從普通人的角度,如果将 GAI 作為醫療咨詢的工具,倒是能在一定程度上降低醫患之間的溝通成本。2025 年的一份研究,調查了 ChatGPT 提供的醫療響應的安全性、準确性和全面性,并與谷歌進行了比較,以了解燒傷及其管理的常見問題。
三名燒傷和創傷外科醫生使用全球質量評分(GQS)量表對谷歌和 ChatGPT 的反應質量進行了評估,評分從 1(質量差)到 5(質量優)。谷歌的答案平均得分為 2.80 ± 1.03,表明存在一些信息,但缺少重要主題。相反,ChatGPT 生成的答案平均得分為 4.57 ± 0.73,表明其質量優異,對患者具有很高的實用性。
所以,對于一般性的醫療的問題,外科醫生一致希望他們的患者從 ChatGPT 獲得信息,這些結果突出了 ChatGPT 作為患者教育來源的潛力。
總結
説到底 GAI 工具的使用者是人,它能發揮出哪些作用,主要還是取決于工具使用者本人的學習能力、知識結構和專業水準。
對于原本就有知識結構方面重大缺陷且又不善于學習的人來説,GAI 工具不啻于魔法,他們很容易不加懷疑地笃信 GAI 工具給出的信息,從而加深自己既有的偏見。
另外,醫患關系的核心部分仍然是人與人的互動,醫療領網域的任何技術進步其目的都是為了給病人帶去希望和福祉。在醫學的歷史上,醫生們在追求技術效率和決策精準度的同時,忽略與病人的溝通技巧和同理心的培養、忽略患者心理需求的故事曾屢屢上演。如果醫生将來對 GAI 的過度依賴,導致了對患者的人文關懷的忽視(這是極有可能再次發生的事),那就與我們追求醫療技術進步的初衷背道而馳了。
而今,站在 AI 技術蓬勃發展的當口,無論是科研、醫療機構,還是一線的臨床醫生和病人,如何保障人文精神在 AI 技術中充分彰顯,實現人類價值與醫療技術的良性互動、協同發展,都将是我們必須要認真思考的問題。
參考文獻
[ 1 ] 闫温馨,胡健,曾華堂,等 . 人工智能大語言模型在基層醫療衞生服務中的應用與挑戰[J]. 中國全科醫學,2025,28(1):1-6.
[ 2 ] 羅旭飛, 呂晗, 宋再偉, 等. 生成式人工智能對臨床實踐指南制訂、 評價和應用的影響 [J]. 協和醫學雜志,2024,15(5):1173 ⁃ 1181.
[ 3 ] 清華大學萬科公共衞生與健康學院,北京大學公共衞生學院,中國醫師協會全科醫師分會 . 智能全科醫生中國專家共識[J]. 中國全科醫學,2025,28(2):135-142.
[ 4 ] Courtney A. Schreiber, M.D., M.P.H., and Sarita Sonalkar, M.D., M.P.H.Author Info & Affiliations. Tubal Ectopic Pregnancy [ J ] . N Engl J Med, 2025;392:798-805
策劃制作
作者丨李清晨 哈爾濱 兒童醫院 胸外科副主任醫師
審核丨唐芹 中華醫學會科學普及部主任 研究員 國家健康科普專家
于乃功 北京工業大學機器人工程專業負責人,北京人工智能研究院機器人研究中心主任,博士生導師
策劃丨林林
責編丨丁崝
審校丨徐來、林林
相關推薦
1.那些經常用手機 " 護眼模式 " 的人,後來都怎麼樣了?
4.吃下去的東西,如能在這個時間内排出來!説明你的腸道很健康
5.歐盟批準将蟲子粉末放入面包、果醬等食品中,最高含量可達 4%,歐洲人的天塌了
本文封面圖片及文内圖片來自版權圖庫
轉載使用可能引發版權糾紛
原創圖文轉載請後台回復 " 轉載 "
點亮 " 在看 "
一起漲知識!