今天小編分享的科技經驗:當AI成為企業新員工,“搞砸”工作誰負責,歡迎閱讀。
盧向華 / 文 數字經濟時代,人的角色正在發生變化。當 AI 成為企業的新員工,人與 AI 的協同合作将逐漸成為生產過程中的常态。當碳基與矽基兩種智慧碰撞,如何摸索出新的協作模式,以提升整體效率?如果人機協同的工作任務 " 搞砸 " 了,人類和 AI 之間又如何界定責任?
與 AI 一起工作,需要最優匹配模式
如果要讓人機協作的系統變得更好,組織管理可以做些什麼?
該領網域的研究尚處于初步階段,大多數企業也仍在探索,成熟的相關研究較少。就目前筆者所了解的情況而言,人機協同中的組織管理可以歸納為三個主要方面:一是企業任務與人機系統的匹配管理;二是 AI 員工融入組織後,組織管理方式的調整;三是人和 AI 在系統中的責任管理。
首先需要考慮的是工作任務與人機合作模式之間的匹配管理。用戶的異質性會影響人機協作的效果。而不同任務的性質也會對不同的人機協作模式,提出不同的要求。因此,組織需要根據任務的屬性,調整人和 AI 在具體任務中的比重。
目前,大家普遍認可的任務匹配管理模式,主要包含可計算性、主觀性及復雜性三個維度。
從可計算性維度看,如果任務本身需要大量計算,超出了人腦的處理能力,那麼讓 AI 來主導可能會更有效。舉例來說,規劃從地點 A 到地點 B 的路線時,人類可能有經驗,但只能從幾條已知路徑中選擇最優路線;AI 則可以枚舉所有可能路徑,并從中找出最優解,效果更佳。
從主觀性維度看,如果任務具有較強的主觀性或需要靈活應變,如醫療服務或餐飲服務,人類可能更适合扮演主導角色。
從復雜性維度看,復雜的決策場景需要考慮更多因素,關系也更加復雜。例如,在外賣快遞調度系統或空間模拟計算等復雜任務中,人類很容易忽視相關因素,從而影響決策質量,這時增加 AI 的比重可能會更有利。
舉例來說,最近的一項研究發現,創意評價類任務,相對模糊和主觀性更強,即使使用了具有理論支持的可解釋性人工智能,機器也無法模仿人類專家的判斷,特别是在篩選出特别優秀的創意方面。這樣的任務更需要由人類來主導。
然而,如果所有的創意評價都由人類專家完成,可能會導致案例過多,使專家感到枯燥和疲倦,從而影響他們的客觀判斷能力。
因此,這項研究提出了一個解決方案:可以先讓 AI 篩除那些低質量的創意,減少專家的工作負擔和乏味感。這樣,專家就可以将更多精力集中在評估和篩選優秀創意上。
復旦大學管理學院一位年輕老師也進行過一個有趣的相關研究。他發現,在任務結果主要依賴于運氣時,比如選課、抽卡娛樂、盲盒消費等,人們更傾向于選擇由人工智能提供服務。因為人們認為,AI 的運氣比人類更好,更有可能帶來理想的結果。然而,在理财、醫療等需要一定能力完成的任務上,人們更傾向于選擇由人類主導的系統來完成。
這一發現在一定程度上證實了,企業需要為不同類型的任務匹配不同的人機協作系統。
AI 讓工作技能提升還是喪失
随着 AI 的加入,企業員工的組成,從傳統僅有社會人轉變為社會人與 AI 機器人的組合。這種情況下,企業将面對新的管理挑戰,包括如何管理 AI 員工,以及如何調整組織策略以适應 AI 員工的加入。目前已有不少研究發現,在與 AI 合作之後,員工對公平性的感知和情緒都會發生很大變化。
例如,智能審計的引入可能會導致員工感到焦慮和不安全,從而抑制其自主創新的意願,進而影響員工的績效。在這種背景下,許多組織行為學領網域的學者開始研究,AI 員工的引入如何影響員工的心理狀态、團隊協作、領導力,以及人力資源的計劃、招聘、培養和管理過程。
在這裡,我分享兩項最新的研究成果。這篇最新發表的研究探索了員工在企業引入智能知識管理系統後,如何适應工作的變化。研究發現,員工在與 AI 支持系統合作時,存在兩種适應機制。
第一種是效益最大化機制,員工會最大程度地利用 AI 來提高自己的認知能力,從而提高工作績效。第二種是幹擾最小化機制,AI 破壞了員工原有的工作流程,導致員工感到角色衝突,進而使得他們的績效受損。
研究進一步分析發現,采用效益最大化策略的新員工,其績效提升速度最快;采用幹擾最小化策略的老員工,其績效相對也表現不錯。
因此,前述建議企業在引入這樣的 AI 系統之後,應該着力鼓勵新員工更多地采用效益最大化的機制來應對 AI 系統。換言之,鼓勵他們利用 AI 學習新知識,以提高工作績效。對于那些已經熟悉原有工作流程的老員工,組織應該幫助他們通過 AI 來調整自己的工作框架和流程,從而降低角色衝突,緩解 AI 所帶來的幹擾。
與此相關的另一個話題是,在人機合作過程中,員工工作技能的變化管理問題。一旦 AI 接管了計算性強、重復性、結構化的任務,理論上的人類就可以轉而從事一些更具有意義、更需要創造性的工作,以促進員工技能的提升。我們将這個現象稱為 "AI 導致的技能提升 "。
舉例來說,對于程式員而言,在 AI 的輔助下,他們可以将更多時間用于思考程式的業務邏輯,而不是花費大部分時間在修復程式中的錯誤上。然而,對于某些知識型員工來說,AI 并不一定會促進技能的提升,反而可能導致一種 " 去技能化 " 的趨勢。
2023 年一項研究顯示,醫生在使用診斷輔助系統後,其獨立診斷的準确性明顯下降,因此 AI 輔助診斷系統的使用,實際上導致了醫生的 " 去技能化 "。另一項研究也發現,手術機器人的引入大大減少了住院醫師實際操作訓練的需求,從而降低了醫生的動手能力。
現在住院醫生需要采取不同于以往的方式,來提高自己的動手能力。某位醫生學者就提出過一個影子學習的方法,通過盡早專業化、抽象演練和監督實踐的方法來培養醫師的動手能力。
任務失敗時,人與 AI 誰來負責
除了激勵和培養員工以更好地适應人機協同工作的環境之外,對企業而言一個更大的挑戰是,如何對人和 AI 的責任進行認定。特别是當服務失敗時,到底誰來承擔責任。
此前關于無人駕駛車出車禍之後的責任問題,就曾引發廣泛的讨論。主流觀點認為,AI 系統本質上是機器,無法承擔法律責任,因此問責對象應該是系統背後的人或機構。然而,也有研究認為,當算法透明度越來越高後,AI 在一定程度上可對其所做的事情負責。
因此,當人和 AI 共同完成任務時,企業如何分配相應的責任就成為一個備受關注的問題。換句話說,企業是否願意主動對 AI 的失敗負起責任,将影響到人機協作系統的采納和最終的績效。
不過,這一問題涉及法律、政策、技術以及相關管理研究,盡管有很多讨論,但成熟可靠的研究實際上并不多見。我們團隊目前試圖在這方面展開一項探索性的研究,研究的場景是互聯網醫療平台。
随着越來越多的互聯網醫療平台采用生成式人工智能提供 AI 問診服務,平台是否需要為 AI 問診的責任提供支持,成為一個非常有趣的研究話題。
我們希望通過這項研究,探索互聯網醫療平台是否願意為 AI 問診服務承擔責任,以及這種決定如何影響患者使用平台的意願。
我們計劃在兩個不同的場景下進行研究,分别是純粹的 AI 問診和 AI 與醫生混合問診。我們将通過一定方式來調控患者對平台承擔責任的感知,并檢驗患者對平台的信任度和使用意願。在研究過程中,我們還會引入 AI 問診和醫生問診的感知中立性作為調節變量。
我們的理論假設是,在其他條件相同的情況下,當 AI 願意為問診質量承擔責任,并且患者認為 AI 問診更加客觀中立時,患者更願意使用互聯網平台的 AI 問診功能。這項研究仍在進行中,我們期待未來能夠分享更多的成果。
綜上所述,我們建議企業根據不同任務匹配不同的協作模式,并重新思考 AI 員工和人類員工合作下的激勵和培養問題,以及做好 AI 系統的責任管理。
最後,借用 " 各美其美,美美與共 " 這句話,人類與 AI 協作的理想境界可能是 " 各智其智、各盡其長 ",即充分發揮人類與 AI 各自的優勢,互相學習,從而提升人機協作的整體效能。
(作者系復旦大學管理學院信息管理與商業智能系教授、博士生導師)