今天小編分享的科技經驗:從“Dr Google”到“Dr ChatGPT”,在線自診真的可靠?,歡迎閱讀。
相信大家都經歷過類似畫面:
在平常日子裡的某個瞬間,你的身體突然感到一陣不适。可能是突發的頭痛、心髒痛、胃痛…,甚至你可能發生了嘔吐症狀。這時你開始猜測自己的病因:
" 可能只是最近壓力大或者沒休息好吧?"," 這兩天的飲食确實有點不規律 " …
事發之後,可能只有很少一部分人會真的選擇去醫院挂号問診,更别說會立刻起身把自己放進急診室了。
但出于對自己健康的擔憂,發生了這些還什麼都不做的話,未免也太那個了。所以,你打開了網頁,決定先進行一番 " 自我診斷 "。
首先,你可能先會在搜索引擎中浏覽一番。
百度也好,谷歌也罷,在你輸入了 " 頭痛、嘔吐、發燒、xx 部位疼痛 " 等一系列關鍵詞後的一個回車,你的眼前出現十頁的鏈接列表。
選哪個?論壇、網友回答、自稱專家醫生的科普?無論選哪個你都必須要點擊、閱讀、比較…
看到這一步,你的頭痛可能已被加劇。你只希望能立即出現一個人,可以來指引你,讓你感到安心。
現代科技帶來了人工智能,何不試試 ChatGPT?
與其看着在互聯網上那些只是可能可靠的網站和評論,或者在現實世界中等待需要至少兩周才能約到的醫生的答復,還不如聽聽匯合了大數據的 AI 助手的回答。
看着它只有幾行的答復,簡短明确又貼心。" 放心," 你對自己說," 是的,可能是流感,注意保暖便可。"
但,真的是這樣嗎?
确實,在線自我診斷有其重要的缺陷,為了避免潛在的悲劇性錯誤,意識到這一點很重要。就像剛剛所描述的症狀,也和腦膜炎的表現相似。
千禧年讓每個人都可以使用互聯網,人們可以訪問大量信息,無論其質量和可靠性如何。健康,作為一個日常主題,搜索疾病、症狀、治療是司空見慣的事情。
患者論壇,或多或少的專業網站……信息來源多種多樣,但,這些都不是和專業醫生進行的對話,并且缺少醫療檢驗成果的憑空描述也是不能獲得确切診斷的。
現在讓我們再回到 " 人工智能 "。它的真正目的是什麼?
英國數學家艾倫 · 圖靈 ( Alan M. Turing ) 在 1950 年提出了一項著名測試(圖靈測試):人類可以盲目地向機器提問,如果人類無法分辨他在與誰交談,則機器獲勝。
因此,就人工智能本身而言,它與智力并無關,只與模仿人類的行為的能力有關。
ChatGPT 并不智能,它旨在給人一種錯覺,即有人能夠理解你的問題及其上下文,并提供看似自然且相關的答案,有時也是 " 似是而非 " 的答案。
對于 ChatGPT 來說,它所說的是真的還是編造的并不重要,最重要的是它看起來是真的。
但我們知道,我們會更加傾向于相信堅定且富有情感的話,特别是對于那些我們所期望聽到的内容。因此,我們很容易成為我們認知偏見的受害者。
AI 程式的目的不是為了幫助我們解決問題,它只是想取悅我們,撫平我們不安 ..... 而當涉及到健康話題時,投奔 AI 将是一個風險加倍的選擇。
對此,開發 ChatGPT 的公司 OpenAI 也是十分謹慎的。當人們在向 ChatGPT 詢問症狀時,也将系統地收到,例如 " 我不是醫生 "、" 我不能被追究責任 " 等回復來撇清關系。
但這也不是說 ChatGPT 的回答都是不可參考的,前提是病人自己可以對其症狀進行十分詳細地客觀描述。
可我們中的大多數人沒有接受過這樣的訓練,觀察和尋找相關迹象是醫生培訓的一部分。而當我們在生病時,這項過程就更復雜了。
簡而言之,對于與在線自我診斷相關的風險,請務必更采納人類醫生的意見!即使你可能覺得 ChatGPT 說的話比醫生更富有同情心和同理心!