今天小編分享的科技經驗:DeepSeek越強大,我就越容易變蠢?,歡迎閱讀。
有沒有發現,自從 AI 成了你的 " 智力外挂 ",大腦好像開始偷偷摸魚了?
好用是真好用,但是一昧地迷信 AI 給出的東西,就有點不太對勁了——小心呐,過于依賴 AI,是會讓大腦變蠢的。
微軟研究院聯手劍橋大學,針對 AI 對批判性思維的影響做了一個深入研究,發現過于相信生成式工具,會減少對自己批判性思維的使用。
對 AI,别太信了
這一次微軟把研究範圍聚焦到了生成式 AI 和知識工作者身上,也就是經常用大模型工具做案頭工作的一群人。
一共 319 名知識工作者,這些參與者每周至少用到一次 AI 工具,包括 ChatGPT、微軟的 Copliot 和 Google 的 Gemini,總用例多達到 936 個。
現在的 GenAI 工具尤其擅長文書類任務,研究人員把這種任務抽成了三大類、九小類:
這個分類基本覆蓋了大多數場景,從潤色郵件、總結内容、提取要點、精準查詢 …… 這些就是我用 AI 常做的事啊。
平心而論,用 AI 本來就是為了提高效率,減少花在 " 髒活兒 " 上的時間,這無可厚非。比如有一位程式員,會用 Claude 幫忙寫代碼;一位外匯交易員,用 ChatGPT 生成交易策略;還有一位老師,會用 Dall-E 生成學校洗手教程的圖片。
這樣一來,用戶自己需要做的工作,就從曾經的 " 零幀起手 ",轉變成 " 監督學習 "。AI 負責出東西,用戶來挑毛病、提意見,一輪兩輪 N 輪的修改,直到滿意為止。
這樣的過程不是挺有效率的,怎麼會讓大腦退化呢?
這些事務型的任務 AI 完成起來又快又好,也就容易讓人 " 掉以輕心 "。除非是真的出現了特别離譜的結果,不然很多人都會放心把事情交給 AI。
而正是這種對 AI 的信任、對自己所選中的 " 虛拟工作夥伴 " 的認可,會讓用戶不願意反思和復盤自己在工具上的使用——也很好理解,誰會輕易質疑自己的經驗呢?
于是研究人員提出了這樣一個問題:在與 AI 合作完成任務的過程中,你會調用自己的批判性思維嗎?
這裡所謂的 " 批判性 " 來源于英文的 "critical thinking",是對可用事實、證據、觀察和論據進行分析的過程。
在這個研究裡," 批判性 " 在這裡,并非單純地指給成品挑毛病,而是有更确切的定義:
1. 能夠審視自己的需求和意圖,從而确定需要 AI 參與的地方 2. 能在心中設定明确的目标 3. 通過主觀标準驗證信息、驗收質量
這三點對應了三種批判性思維裡的核心構件:意識、動機和能力。當沒有意識、沒有動機、還缺乏能力的時候,依賴 AI 無異于讓自己的認知思維進一步退化。
而這次研究最重要的發現,是那個影響調用批判性思維的決定因素:不是任務類型,也不是模型的強大程度,而是人對 AI 有多 " 信 "。
在強大的模型面前,每一個人都會產生自我懷疑——懂得不如它多,反應不如它快。有了 DeepSeek R1 這樣的天才型選手之後,更是懷疑自己的深度思考能力也不及 AI 了。
出于對 AI 的認可,自然也就把重要的事交出去,不再過問。
怎麼避免退化?從自信開始
依賴工具會讓人變蠢,類似的說法很常見了,不是一天兩天。最著名的研究,要數針對出租車司機習慣用導航之後,大腦内海馬體的變化。
上個世紀 60 年代時,人們就發現海馬與空間記憶密切相關。英國神經學家對倫敦的出租車司機進行了研究,發現接受培訓期間,新手司機熟悉了倫敦的空間,他們的海馬體明顯變大。相比之下退休的司機,海馬體則是在變小。
後來,又有學者直接找普通人做實驗,發現在使用 GPS 時行走時,海馬體不會處于活躍狀态。只有自己思考路線該怎麼走時,海馬體才會被激活。
必須指出的是,出租車司機因為工作經驗,海馬體本身就異于常人,即便退化也只是回到普通人的均值,并不是惡性的萎縮、損傷。
這兩個研究更多是在指出了鍛煉大腦的必要性。這是一個惡性循環:越相信工具,就會越少調用自己的判斷和認知。随着認知的退化,逐漸不具備找到錯漏的能力了,只能越來越相信工具。
不過,這并不意味着要從此跟 AI 工具一刀兩斷,沒必要。在工具越來越普及的現在,也不可能完全對 AI 避之不及。
回到剛才的 " 意識 "" 動機 " 和 " 能力 " 方面,只要建立不能盡信 AI 的意識,不過分放手。"3R 原則 " 是一個值得嘗試的日常小練習:
Reverse 逆向訓練:每周完成一次 "0 生成純天然 " 的基礎任務。比如對長文章的提煉摘要、讀書總結、播客總結,哪怕 AI 完成得更好,也堅持自己做一遍。可以把自己成果和 AI 的版本進行對照,這樣可以觀察自己的思路是否需要增補,以及 AI 容易在哪些地方出現幻覺。
Reconstruct 重構輸出:将 AI 生成的内容重新解構。用工具生成思維導圖是一個常見的用法,但是思維導圖是被高度提煉之後的内容,許多信息被 " 折疊 " 了。正是這些被折疊的部分,影響了認知能力的鍛煉。Reconstruct 的要點在于反過來拆解 AI 的長篇大論,建立獨一無二的思維導圖。
" 變蠢 " 可能是一個略帶簡單粗暴的說法,但這背後隐藏着一個樸素的道理:用進廢退。
批判性思維的減少,和對人工智能的信任有所相關,那麼提高批判性思維,不如就從更相信自己開始。