今天小編分享的科技經驗:AI用“錯”了 人真的會變笨!沒騙你,歡迎閱讀。
AI 一天,人間一年。近兩年來,AI 技術發展迅猛,對我們生活滲透的速度,可以用一日千裡形容。從智能家居到自動駕駛,從智能客服到 AI 助手,從寫作畫圖到情感陪伴,高效、便捷的 AI 技術,一點一滴悄然改變着我們的行為,提升着我們的生活質量和工作效率。
許多像我一樣(天天夢想着不勞而獲)的打工人,開始做起了 " 無痛工作 " 的白日夢——夢想着能夠借助 AI 的力量,在不付出太多努力的情況下完成工作,享受生活。
每月花上兩三百塊錢開個 AI 會員,實現 50% 以上工作外包,這事擱誰身上沒有巨大的誘惑力呢?然而,當我們沉浸在 AI 帶來的便利中時,也不得不警惕其可能給使用者帶來的負面影響:思維遲鈍、產生依賴、行動懶惰。
聽到這,有些朋友可能會懷疑,明明 AI 用着那麼爽,出活那麼快那麼好,你這怕不是危言聳聽吧?
這還真不是危言聳聽。
近兩年,有多項研究得出了類似結論,為了讓大家兼聽則明,下面咱們用 " 人話 " 介紹幾個 AI 相關的研究以及學者們的結論和建議,請放心,零基礎也看得懂。
AI 讓人在方向盤上睡着了?
沃頓商學院副教授伊森 · 莫裡克 ( Ethan Mollick ) 2024 年 4 月出版了一本書籍,叫《協同智能:與人工智能一起生活和工作》(Co-Intelligence: Living and Working with AI)。
書中介紹了一個實驗,莫裡克和他的其他同行,請世界頂級咨詢公司之一的波士頓咨詢集團(BCG)協助負責實施研究,近 800 名波士頓咨詢的顧問參與了實驗。
這些顧問被随機分為兩組,一組按照傳統方式正常工作,另一組必須使用 GPT-4 (OpenAI 的拳頭產品,大語言模型的領先者之一)。
這些顧問在經過人工智能培訓後,可以自由執行 BCG 設計的 18 項任務,包括創意任務、分析任務、寫作和營銷任務、說服力任務等,這些都是正常咨詢顧問的工作範圍之内的标準任務。
你猜哪組完成得更好?
這個答案其實沒有懸念——使用了人工智能的那組做得更好。而且這種評判不是主觀的(某個領導說你行你就行那種),而是研究者用了 118 次不同的分析,使用人工智能組仍然具有顯著優勢。
人工智能組的顧問們工作速度更快,更有創意、寫得更好、分析能力更強。方方面面都行。
你可能會說:這不是很好嗎?
但是研究者發現了一些令人擔憂的事——顧問們在使用人工智能來幫助他們完成任務過程中,由于人工智能已經完成了大部分工作,大多數實驗參與者只是簡單地粘貼他們被問到的問題,然後把人工智能的答案復制到他們的工作結果中。
然後 BCG 又設計了一項任務,這項任務是經過精心挑選的,以确保人工智能無法得出正确的答案——該任務結合了棘手的統計問題和誤導性數據。
在沒有人工智能幫助的情況下,人類顧問的正确率是 84% ,但當顧問使用人工智能時,只有 60% 到 70% 的正确率。
為什麼會這樣?
聰明的你肯定也猜到了,顧問們依然像上次一樣,僅僅簡單地把人工智能的答案復制粘貼下來。這很難歸咎于顧問們投機取巧。設想一下,你如果處在這個場景,面前已經有一份看似 " 完美 " 的标準答案,很難克制自己不直接使用。
研究者們有個形象的比喻——過于依賴 AI 的顧問們就像趴在方向盤上睡着的司機,因為人工智能太過強大,能較好地完成絕大部分工作,人類不知不覺間給予了 AI 太多信任,但如果問題超出了 AI 的能力,這種信任就可能鑄成大錯。
AI 将教 " 會 " 學生還是教 " 廢 " 學生?
人工智能在教育行業中正被越來越廣泛地使用,而機智的大學生們,已經在第一時間使用各種大模型幫他們完成作業。此外,還有學校或者官方合作的智能體軟硬體,以及其他商業公司提供的一些輔助教育產品都層出不窮。關于人工智能對教育領網域的研究顯然是非常重要且必要的。
去年 6 月,有一項發表在《自然》雜志(Nature)上的研究,就探讨了人工智能對巴基斯坦和中國大學生決策能力喪失、懶惰和隐私問題的影響。
這項研究主要考察了巴基斯坦和中國來自不同大學的 285 名學生的學習情況,數據分析結果表明,人工智能顯著影響學生和教師的決策能力,并使學生變得懶惰。此外,還會帶來安全和隐私方面的問題。
調查結果顯示,人類(參與的教師和學生)68.9% 的懶惰、68.6% 的個人隐私和安全問題、27.7% 的決策失誤都是由于人工智能影響。
使用人工智能技術的教師和學生會慢慢地、逐漸地失去自己做任務的興趣,還會逐漸導致人類決策權的喪失。當人工智能的使用和依賴增加時,會自動限制人腦的思維能力。
同時,人工智能的使用,會大幅減少實時物理互動,并會影響學生和教師之間的教育環境。
在真實的環境中,教師和學生之間存在大量的互動,這會發展學生的個性和公民素養,例如,學生可以向其他學生學習,向老師提問,感受同學們之間的反饋等等,光靠 AI 的話全都難以做到。
這項研究認為,在教育中大規模應用人工智能技術之前,需要采取重要的預防措施。在不解決人類主要問題(人性天然具有弱點)的情況下,貿然接受人工智能就像召喚魔鬼一樣。建議集中精力合理設計、部署和使用人工智能進行教育來解決這個問題。
用的 AI 越好,招募人才越容易?
AI 還有個常見應用,就是幫助人力資源部門篩選簡歷,幫助招聘,那麼效果究竟怎麼樣呢?
哈佛商學院創新科學實驗室的社會學家法布裡奇奧 · 戴爾阿誇(Fabrizio Dell'Acqua)2022 年發布了一項研究,他聘請了 181 名專業招聘人員來審查 44 份簡歷。
他把受試者随機分為四組,分别與 " 能完美預測的人工智能 " 、" 好人工智能 " 、" 壞人工智能 "、" 無人工智能 " 搭檔進行招聘工作。
結果發現,使用高質量人工智能的受試者,對工作申請的評估不太準确,他們在每份簡歷上花費的時間和精力更少,并且盲目遵循人工智能的建議。随着時間的推移,他們也沒有改善。
但使用 " 壞人工智能 " 的招聘人員會付出更多的努力并花費更多的時間來評估簡歷,并且不太可能自動選擇人工智能推薦的候選人,他們更加警覺、更加挑剔、更加獨立。這些招聘人員學會了如何與指定的人工智能更好地互動,并提高了他們的績效。
這說明高性能人工智能可能會 " 鼓勵 " 人類多偷懶,把掌舵的方向盤完全交給了人工智能,自己在駕駛員的位置上睡着了。
讓 AI 幫助人類向上,人類監督 AI 向善
史蒂芬 · 霍金曾說過,人工智能的成功創造将是人類歷史上最重大的事件。不幸的是,除非我們學會避免風險,否則這也可能是最後一次。
無可否認,我們人類天生具有某些短板,這也是我們之所以為人的重要屬性。偉大的科技在開創之初,都是為了彌補或平衡人類的短板,我們最不希望看到的結果——它讓我們的短板越來越短。
人工智能技術是為了造福人類而開發的,但從目前看,它并沒有實現在某些方面讓人類的自身水平提升獲益。
我們作為豐富感性的碳基人類,難免偶爾會偷懶,但我們需要認識到,當我們完全信任地把決策權悉數交給一個系統時,這實際上在進行一筆交易,隐藏的成本可能是你内源性的深度思考和技能成長空間。(咳咳咳,此處特别強調給用人工智能 " 交作業 " 的一些學生朋友們,小機靈鬼,說的就是你)
當工作中為了提效,和人工智能協作時,我們應該将人工智能視為一個古怪的隊友,而不是一個無所不知的仆人。我們得記得檢查其謊言和偏見、馬虎或遺漏,同時還要權衡其決策的道德性。最重要的,考慮哪些任務值得交給它,哪些任務我們想保留給自己。
畢竟,如果真的讓人工智能完全 " 替自己打工 ",那麼,未來某一天,砸掉自己飯碗的,不是人工智能,而是你自己。