今天小編分享的科技經驗:“AI教母”李飛飛:要把大模型看成一個漂亮的計算器 不要把它當成威脅,歡迎閲讀。
騰訊科技訊 1 月 7 日消息,據外媒報道,"AI 教母 " 李飛飛博士最近接受外媒采訪,談到了如何對公眾進行 AI 科普,如何更好地對 AI 進行監管等問題。
為 AI 革命奠定基礎的研究者屈指可數,李飛飛就是其中之一。她 15 歲時從中國前往美國,一邊求學一邊打零工賺外快。如今,李飛飛博士是斯坦福大學計算機科學教授,也是該校 Human-Centered AI 研究所的主管。
在外媒采訪中,李飛飛表示 AI 不應該被當作鬼神來恐懼或者崇敬,而應該被視為一種工具,一種可以服務于人類利益的工具。李飛飛認為,必須始終重視人類的主觀能動性。
以下為外媒采訪問題及李飛飛的回答:
問:科技產品越多,就會有越多的人想知道:如果沒有它們的幫助,人類的心智會有怎樣的產出呢?人類會帶來什麼價值呢?
答:這就得從人的主觀能動性開始説起了。人類是非常復雜的生物。我們不僅僅是由我們大腦某一側或由我們在大數據上的計算方式來定義的。我們不是由我們的記憶負荷或任何我們自己的神經網絡的算法來定義的。
定義我們人類的,是我們的意志、我們的情感、我們的能動性、我們與自己和彼此的關系。作為 AI 領網域的專家,最近我一直在強調,我們需要對自己有信心和自尊,因為我們和計算工具不一樣。
問:為什麼人類的這些能力很重要?
答:有一個正确的 " 工具觀 " 非常重要。科技產品非常強大,但我想強調的是,它們是工具。也許有人覺得這種想法有點書呆子氣,但我在研究中看過一些調查材料,是關于美國人如何分配時間的。美國人把時間分配在工作、娛樂、休閒、家務上,其中包含的事項數以萬計。
我并不想貶低科技產品,但與人類相比,科技產品能做的事情非常有限。我認為作為人類來講,非常重要的一點是弄清楚我們與我們創造的工具之間的關系。這是人類文明一直面臨的重大課題。有時候,我們能把這個關系處理好,有時則不然。我們需要理順這種關系,用主觀能動性來決定這種關系應該如何發展。
問:有一些公司擔心,把 AI 關在 " 防護欄 " 裏會減緩創新的速度。應該怎樣平衡創新的速度和安全性呢?
答:這是一個價值萬億美元的問題。為這個問題找出解決辦法非常重要。這會是一個持續不斷的迭代過程。
我覺得這個問題的答案不會是簡單直白的。坦率地説,如果任何人聲稱自己可以把解決辦法用一兩句話説清楚,我會覺得這個人沒有直面現實。因為創新既要有速度,又要有安全性。
創新将帶來新的發現,帶來就業機會,讓我們有更高的生產力,更好的健康狀況,更優質的教育資源,更适宜的環境。這些是可以預見的。
但與此同時,我們也需要 " 防護欄 " 來保護人的生命、人的尊嚴,特别是那些處境不佳的人。這涉及人類作為一個物種所關心的價值觀。我作為一個技術專家,作為一個教育工作者,聽到任何走極端的説法都會感到擔心。
問:怎樣設計良好的 " 防護欄 " 呢?
答:這是過去五年來我一直在努力的問題。這個問題促使我在斯坦福建立了 Human-Centered AI 研究所。研究所名字的意思是,要把個人和社會的福祉放在設計、開發和部署 AI 的中心位置。
設計和構建良好的防護欄是個非常復雜的事情。我認為需要一個框架,主張在技術和防護欄之間保持均衡,将倫理納入到技術的設計之中,要有一套側重于利益相關者的方法,來考慮技術對個人、社區和社會影響。
問:公眾對 AI 的理解,與專家相比,差距最大的地方在哪裏?
答:坦率地説,差距非常之大。
AI 技術太新了,公眾不太了解它也很正常。公眾當初了解電力這個東西也花了不少時間。我們必須給大家一些時間,讓公眾接受 AI 科普。
目前公眾被誤導了,關注點被帶偏了。倒也不是有人在惡意引導,而是因為缺乏溝通和科普。
在輿論場上發聲的差距也很大。有這麼多優秀的研究人員、企業家、技術專家、教育家和政策制定者專注于創造更好的未來,比如把 AI 運用在醫學或農業方面,但我們沒有聽到他們的聲音。反而是一個想要 " 赢家通吃 " 的小團體把持了擴音器,這對公眾有弊無利。
問:你想澄清的最大的誤解是什麼?
答:舉個例子,大型語言模型可以幫助你做什麼,這個問題就需要好好科普。
有些人會直接從 " 大型語言模型出現了 " 跳躍到 " 人類的能動性全都消失了,沒有人再需要學習英語 " 的結論上。有人會覺得,企業使用大型語言模型的時候,就是員工打開一個大型語言模型,然後離開房間,讓它自己運行,產品就自動完成了——我認為這不太可能。
實際上,大型語言模型就像一個漂亮的計算器,這個類比可能有點尬,但重點是,它們是工具,可以用來提高生產力。
但我們也需要誠實地讨論一些問題,比如 AI 對工作和工資有什麼影響?我們如何負責任地使用 AI?但這些讨論并沒有出現。如果你在大街上随機找一個普通的美國人,問他:你在哪裏看到關于 AI 内容的?你從中了解了什麼?你對 AI 的印象如何?他也許沒啥可説的。
問:好的 AI 教育是什麼樣?
答:我不知道泰諾(Tylenol)感冒藥是如何起作用的,但我相信它,也會服用它。所以教育也是分層次的。AI 技術太新了,很多人都以為,除非自己懂數學,否則就弄不懂 AI。但事情不是這樣的。
我們不需要了解生物化學,也能對泰諾有一個常識性的了解。公共教育會告訴你,什麼藥物是用來治療什麼症狀的,藥物監管部門做了什麼,以及患者怎樣與藥劑師和醫生合作,以負責任的方式服用泰諾。
現有的公共教育提高了大眾的主觀能動性,讓他們理解了一些常識。然後,如果你真的對生物化學感興趣,你自己會想去研究泰諾的分子效應。
目前的 AI 教育缺少就這一塊。雖然技術方面有很多公開的資料,但并不是很容易理解。從某種程度上説,這就是我寫《我看到的世界》這本書的原因——我想用一種通俗易懂的方式來讨論 AI。我們需要對公眾進行科普,與他們溝通,來了解大家如何從其他角度來看待 AI,比如經濟學或立法角度。
問:如果沒有正确的教育,會有什麼後果?
答:我最擔心的是大家失去主觀能動性。很多人都很害怕,擔心人類最終會淪落到被機器統治。這也太誇張了吧。但如果公共教育不足,這可能會成為一個自我實現的預言。
我們都有主觀能動性。政策制定真的很重要。它可以全面禁止整個 AI,也可以讓情況變得失控,而失控會比禁止更糟糕。為了人類的尊嚴,就必須要有合适的防護欄。這樣我們才能用 AI 來提供福祉。
問:每次我在派對上跟人説,我(外媒記者)是靠寫作謀生的,他們都會説 ChatGPT 将搶走我的工作。我該怎麼回應?
答:你低估了自己的主觀能動性!
不妨做個實驗,你找個題目,讓 ChatGPT 寫出來,然後你用紅色标出你不得不重寫的部分,拿出來給大家展示一下:看吧,有 95% 都要修改。
我的意思是,也許有一些事情,你放手給 ChatGPT 做,是因為它真的做得不錯,但仔細看看你就會發現,你自己還有很大的發揮空間。你可以用 AI 來提高工作效率,激發你的主觀能動性,不要把它當成威脅。