今天小編分享的教育經驗:你以為在追 AI,其實你落下的是思考力——諾獎得主 Hinton 的提醒,刺痛所有人,歡迎閱讀。
以下文章來源于 AI 深度研究員 ,作者 AI 深度研究員
作者 | AI 深度研究員
來源 | AI 深度研究員 管理智慧 AI+
咨詢合作 | 13699120588
文章僅代表作者本人觀點
(視頻:諾獎得主 Geoffrey Hinton 在多倫多大學本科新生講座)
你以為自己一直在追 AI,
用工具、看教程、嘗試各種新功能。
你是不是也想過:
" 只要跟上它的節奏,就不會被落下。"
可你有沒有真正問過自己——
" 我到底理解它在做什麼嗎?"
你在生成回答,卻沒再追問:" 為什麼是這個答案?"
你在執行指令,卻忽略了另一個問題:" 我是在用它,還是被它用?"
昨天,在多倫多大學的一場本科新生講座上,
AI 教父、諾獎得主 Geoffrey Hinton,對一群大學生說出:
" 你以為是 AI 在進化迭代,
其實是人類還沒學會思考。"
這不是一句哲學空談,
而是一場現實警告:
如果你不重新理解 " 思考 ",
你就無法真正理解 AI,更别說用好它。
AI 越來越強?别被假 " 理解 " 騙了
1、你以為 AI 已經會思考了,對吧?
Claude 的類人對話、GPT 的多輪記憶、DeepSeek 的系統集成……
這一切讓人誤以為:AI 已經很接近人類智能了。
但在多倫多大學的講座上,Hinton 提出一個更根本的問題:
" 你真的理解過,‘思考’到底是什麼嗎?"
所有人都在追 AI,,
可我們是不是反而忘了,先重新理解我們自己的‘理解’?
Hinton 并不否認 AI 的加速。他說:
"AI 正在接近我幾十年前的願景。"
緊接着他補充:
" 問題是,我們自己到現在都還不清楚——什麼才是思維。’ "
這不是他在自謙,而是他研究五十年後的判斷:
人類對 " 智能 " 的想象,長期被邏輯主義所誤導。
2、思考,不是推理,而是 " 發現别人可能搞錯了 "
他講了一個真實的小實驗:
在他年輕時做心理學研究時,
他觀察 3 到 5 歲的孩子分辨不同形狀和顏色。
有一組樣本中,出現了紅色圓形、黃色圓形、黃色正方形。
一個聰明的五歲孩子沒有選擇哪個 " 不同 ",而是指出:
" 你把那個圓形塗錯顏色了。"
這句話震住了他。
他不是答題,而是在理解規則後,反過來質疑規則本身。
這,是 " 思考 " 真正開始的地方。
Hinton 總結說:
" 我們現在的 AI,可以學會回答問題。
但它還不能發現問題,更不能指出人類可能搞錯了。"
它能預測語言,卻不懂語言的歧義;
它能模仿思維,卻無法質疑前提。
它看起來像在思考,其實只是套用了格式。
3 、人不是邏輯動物,而是 " 類比動物 "
Hinton 說:
" 我們不是邏輯動物,而是類比動物。"
你不是通過一套規則思考,
而是通過一連串模糊的經驗、感受、相似性進行判斷。
這正是人類思維的復雜之處——
不是算法邏輯,而是一種模糊而動态的類比直覺。
我們可能在 AI 身上看見 " 人 ",但它不懂 " 人 "
他提醒學生:" 你們從中學一路走來,被教會了如何寫出‘正确答案’。但在真正復雜的世界裡,發現問題,比回答問題更重要。"
這句話,不只是說給台下的新生。
是說給所有還在‘答題’的人類社會。"
Hinton 50 年只追一個問題
1、不是學霸人生,而是一連串 " 亂選 " 後的執念
很多人以為,像 Hinton 這樣的科學家,一定是少年天才、一路開挂。
其實恰好相反。
他說,自己剛進劍橋,第一次離開家,才發現:自己并不比别人聰明。
" 一個月後我就退學了。"
他做過零工,申請過建築專業。
第二天又變卦,回去讀了科學。
後來像走馬燈一樣換專業:生理學、哲學、心理學……
聽起來像是在逃避,其實他一直在找答案。
本科時他學物理還不錯,但數學太復雜。
他幹脆說:" 我永遠成不了物理學家。"
他喜歡生理學,但夏季課程講神經系統的時候讓他失望:" 他們只講了衝動是怎麼傳導的,但沒講它是怎麼‘工作的’。"
他去哲學、心理學裡找答案,一個太空,一個太淺,都沒碰到‘思維的核心’。
直到多年後他才明白:
" 如果你真的想理解思維,你必須理解大腦是如何工作的。 光靠哲學、心理學、邏輯,是不夠的。"
2、" 混亂 " 的路線,反而是他成為諾獎得主的根基
Hinton 對在場學生說:
" 我走了一條混亂的路,但回頭看,每個學科都在為後來打底。"
哲學讓他質疑 " 理性 " 的本質,
心理學讓他接觸實驗方法,
生理學則建立了他對神經結構的直覺。
後來進入人工智能領網域,他才開始真正 " 搭建思維的機器 "。
這也印證了他今天最想告訴年輕人的一句話:
" 比起‘你學什麼’,更重要的是‘你想弄明白什麼’。"
3、他不是追着趨勢跑,而是盯着一個問題,跑了 50 年
他說:"" 我之所以做人工智能,是因為我相信——我們能在電腦裡,模拟出‘小型思維’。"
不是因為 "AI 是風口 ",
更不是因為 " 這個專業有前景 ",
這些話,在今天這個所有人都在選 " 熱門專業 "、追 " 未來方向 " 的時代裡, 反而顯得格格不入。
但你如果回頭看——
今天的熱門方向,幾乎全都是那些當年被嘲諷 " 冷門 " 的人,長期沉進去、默默打磨幾十年打下的基礎。
講座臨近尾聲,他講了一句很輕的話:
" 我當過木匠,做過實驗失敗,也曾放棄學術。但我一直沒放棄 " 人類是怎麼思考的 " 這個問題。"
他提醒學生:路徑可以混亂,但動機要清晰。
你可以換專業,可以失敗,可以走彎路,但你要問自己:
" 有沒有一個問題,是你願意花五十年去追的?"
AI 很會預測,但不懂 " 理解 "
1、" 理解 " 不是預測下一句話,而是知道你在說什麼
現在的 AI 模型表現得越來越 " 聰明 "。
它能寫新聞、畫圖、生成策略文案,
甚至能在醫學考試、法律分析、邏輯測試中超越人類平均分數。
但在 Hinton 看來,這并不意味着它 " 理解了 " 世界。
"AI 所做的,不過是預測下一個詞——
它不理解你在說什麼,只是在拟合你會說什麼。"
他說,它會接話,也能模仿人類的語氣、節奏、态度,
讓你覺得它好像真的在 " 懂你 "。
但當你問它:" 你為什麼這麼回答?"
它卻根本答不上來。
你以為它是邏輯清晰的 " 答題者 ",結果它連自己為什麼答這題都不知道。
2、預測 ≠ 理解,模仿 ≠ 思維
Hinton 強調,預測是一種表層行為,
但 " 理解 " 必須包含一個更復雜的結構:
它必須能整合上下文、指向現實、具備解釋力。
他說:" 它會寫詩,卻不懂孤獨;能編對白,卻從未愛過誰。"
這不是浪漫主義的批評,而是技術路線上的提醒:
" 我們造出了看懂世界表面的系統,卻還沒造出能解釋世界的系統。"
人類的理解力,是從 " 解釋差異 " 開始的。
什麼意思?
真正的理解,是從能解釋‘例外’開始的。
他舉了一個簡單例子:
為什麼我們能理解 " 他傷心地笑了 " 這種矛盾短語?
為什麼我們能通過語氣、上下文、過去的經驗,來判斷這是一種 " 諷刺 " 或 " 防御性 " 笑?
因為我們的大腦是不斷在構建一個 " 世界模型 ":
包含模糊的經驗片段
包含情緒的重量、語境的厚度
包含你對自己過去判斷的修正能力
Hinton 說,這種東西,是當前的 AI 暫時沒有的。
"AI 沒見過世界,也從未經歷誤解、失敗、修正——
它只是在生成‘像理解的回答’。"
3、理解的本質,是 " 元認知 " 而不是 " 精度 "
Hinton 特别強調:
我們要追求的 AI,
不是更精準的模仿者,
而是能反思、能質疑前提、能與人類一起重新定義問題的系統。
這類智能目前還很原始,也不是主流方向。
因為它慢、難、看起來 " 不炫技 "。
但 Hinton 反復提醒:
" 我們要構建的,是能共存的智能,不是能奪權的智能。"
現在大多數人談 AGI:
"AI 是否能像人一樣完成工作?"
但 Hinton 的提問方式是:
" 你是否真的理解‘人是怎麼完成工作的’?"
這不是一個哲學問題,而是一個工程入口問題。
如果你連 " 人類理解 " 是如何形成的都不知道,
那你訓練出的模型,很可能只是一個幻象——
它會說話,卻不知道自己在說什麼;
它看起來理性,其實連規則從哪兒來的都沒搞明白。
" 不是 AI 不聰明,而是我們太急着定義‘聰明’了。"
不是專業貶值,是你太快放棄了 " 困惑權 "
1、焦慮背後,是 " 人類價值 " 的錯位
你焦慮的,不只是 " 大學專業選得對不對 ",
而是越來越不确定:" 人類的價值,還剩下什麼?"
當 AI 能改稿、配圖、自動列提綱,
連學校開設的新專業,也清一色投向了數據、算法和自動化。
你開始懷疑:
" 我會的東西,真的還有價值嗎?"
教育部增設的新專業,幾乎全部跟人工智能相關。
官方的信号已經很明确了:
未來的人才,最好既能讀懂機器,也能被機器讀懂。
與此同時,
在多倫多大學的講座上,Hinton 表達出了一句更具穿透力的話:
" 如果你沒有一個真正感興趣的問題,選什麼專業都沒意義。"
這不是在唱高調,
而是在提醒我們:
真正被 AI 拿走的,不是 " 技能 ",而是 " 主動思考的機會 "。
他不是一開始就知道自己要做 AI,也不是一路順風
——只是沒那麼快放棄那個讓他困惑幾十年的問題。
2、文科的 " 無用 ",恰恰是它的價值所在
今天很多人指責 " 文科沒用 ",是因為它不直接 " 產出 ":
它不造芯片、不跑模型、不寫算法。
但它能提問、能命名、能反問本身——這些,AI 還遠遠做不到。
你以為理解文學、哲學、歷史是沒用的,
但 GPT 的幻覺(hallucination),本質上是它無法理解語境、權力、諷刺這些結構。
你以為 AI 寫稿子比你快,
但它還分不清:
哪句話會傷人,哪張圖是壓迫,哪個詞會引發共鳴。
這些,就是文科教育本該訓練的東西, 也是 " 深度人類性 " 的一部分。
講座中,Hinton 反復提醒學生:
" 你越年輕,就越有時間允許自己失敗。"
但今天的年輕人,
越來越沒有犯錯的空間, 沒有 " 純粹探索 " 的勇氣。
不是因為他們懶,而是社會在反復訓練你:
" 這有用嗎?"
" 這能掙錢嗎?"
" 這能防止我失業嗎?"
而 Hinton 的整個人生主張恰恰相反:
" 你要先想清楚,什麼問題讓你着迷,其他的才有意義。"
你不是沒用,而是太早被迫成為執行者。
你不是工具人,
你只是太早放棄了‘當思考者’的機會。
3、不是為文科辯護,而是為 " 人類餘地 " 留出一塊地
你可以不學哲學,
但你得能提出哲學式的問題。
你可以不寫小說,
但你得能感知人類故事的復雜結構。
未來的 AI 會越來越強, 但越強,它越像一面鏡子:照見人類自己,丢掉了什麼。
人類的優勢,是會問 " 為什麼 "
1、你焦慮的是 AI,其實更該怕的是 " 認知自動駕駛 "
在講座問答環節中,有學生問 Hinton:
" 你怎麼看 AI 對未來職業的影響?"
面對學生關于‘未來職業’的問題,Hinton 沒有直接回答,
他講了一個自己年輕時的經歷:
20 世紀 70 年代,他曾短暫離開學術,成為一名木匠。他說:
" 那時候我真的以為,學術這條路走不通了。"
但後來他遇到一位真正的木匠,對方手藝比他好得多。
他突然意識到:
" 也許我該回去搞研究。相比之下,做學術還容易點。"
這不是轉行的插曲,而是他想提醒我們:
" 人類最大的問題,從來不是技術,而是我們太容易放棄思考。"
Hinton 提到,大多數人把 AI 看成是外部威脅——
怕它太聰明、太快、太卷。
但他反問學生:
" 你有沒有意識到,你每天的很多決定,
都是在沒有真正思考的情況下做出來的?"
我們做選擇,不是出于興趣,而是出于‘證明有用’:
選标題只看吸引眼球,選專業只看好不好就業,學技能也只看能不能變現。
不是 AI 在接管世界,而是我們早就把主導權交了出去。
2、諾獎,不是因為聰明,而是他沒換問題
Hinton 并不是一開始就決定做人工智能,
也不是一路開挂的 " 少年天才 "。
他說,自己數學一般,人生轉了不少彎。
" 我想弄明白,大腦是怎麼工作的。"
不是他規劃得比别人好,
而是他沒換掉那個讓他困惑幾十年的問題。
這跟今天很多人的路徑焦慮正好相反。
我們太習慣 " 規劃路徑 ",
卻很少認真問自己:
" 我想弄清楚什麼?"
就算沒有目标,也别急着丢掉那個讓你困惑的問題。
3、AI 越像人類,人類卻越不像自己
AI 不停在進化,;
而我們人類卻越來越習慣不提問。
Hinton 沒有貶低 AI,但他表示:
" 我們要做的不是把 AI 變得更像人,
而是該回頭問自己:我們還像人嗎?"
在講座中,他回想起一件童年小事。
他說自己五歲時,
看到一枚硬币在車座上 " 逆坡滾動 ",他非常困惑,以為看到了魔法。
多年後他才知道,那不是魔法,而是物理——
是座位上的纖維配合震動,制造了一個 " 單向推進 " 的摩擦。
然後他說了一句話:
" 重要的,不是能不能解決問題,而是有沒有那個讓你停下來的困惑。"
未來,不是 AI 把我們變傻了,
而是我們太早,就學會跳過了 " 為什麼 "。
别再說 AI 在進化,是你沒開始思考
AI 會生成畫面,寫下對白,編出浪漫。
但它越像人,越讓我們意識到:
我們,好像越來越不像人。
但 Hinton 說:
" 你以為是 AI 在進化,
我們太習慣讓模型給出答案,
卻很少問一句:這真的是理解嗎?
他不是在唱衰技術,
而是在提醒:
不是你會不會用 AI,
而是你用它,是在省事,還是在思考?
未來,不是靠執行命令的人留下,
而是那些能用 AI 反思世界、修正思維的人留下。
這不是一個關于 AI 的時代,
這是逼你重新成為‘思考的人’的時代。
~~~
下次你用 AI,别只生成答案,
問一句:" 我為什麼要這麼問?"
留下的,不是最快的人,
而是那些還在追問的人。
留言告訴我們:
你有沒有那個,願意追十年都不放手的問題?
參考資料:https://www.youtube.com/watch?v=vpUXI9wmKLc&t=3309s&ab_channel=UniversityofToronto
來源:官方媒體 / 網絡新聞