今天小編分享的互聯網經驗:幻覺即智能:AI落地裡順勢與逆勢的分界線,歡迎閱讀。
圖片來源 @視覺中國
文 | 李智勇
大模型是有幻覺的,其表現很多樣比如與事實衝突,其成因也很多比如缺相關知識或者對齊錯誤,不清楚的點就更多。但和應用相關的最為關鍵的點還不是這些,而是:看起來幻覺是個短期搞不定的事,即使是 OpenAI。這就要求在落地的時候把它當前條件和不變量來思考,一旦把它做前條件和不變量,那就會發現像對人類一樣,幻覺也并不全是壞處。
順勢的和逆勢的
我們把幻覺對產品有幫助還是對產品有害作為縱軸,再加上出問題的責任作橫軸,形成一個簡單的坐标系,然後再把各種人工智能體放在在這個坐标系上面,那大概是下面這樣:
也許對不同人工智能體所處的位置會有争議,但幾個極值應該問題不大。
對于元宇宙而言本來就是高級遊戲,那人物行為的出格反倒是會激發遊戲叙事的多樣性,成為豐富世界内容的一部分養料;對于問診就很麻煩,如果在既有醫療知識框架外發揮,然後病人病情變嚴重了,那就不單有害,後果還很嚴重。現實空間和問診類似的其實更多,包括客服、稅務咨詢等。
在尋找智能飛輪:從數據枯竭到多模态再到自生成裡面我們提到過除了 AlphaGo 還沒人轉起來智能飛輪,又因為飛輪一旦轉起來必然會產生特定領網域的神靈,所以關心這個人工智能應用的人都關心到底在那裡可能再出下圖這樣的智能飛輪:
這在上面的象限圖上也能找到回答的思路:越偏元宇宙這個方向,越容易些。幻覺可以低責任成本的制造新數據,新數據融入場景,然後反過來就可以作為燃料驅動飛輪。
象限中的位置即定位
在象限中的位置對做 AI 產品落地是非常關鍵的。
這個位置在相當程度上就決定了你的運營成本乃至于跑的快慢。并且它面對的約束非常剛性,不可改變。
通常的理解裡,我們都把產品看成一組特性,用能幹什麼不能幹什麼,用功能性能參數等表述,高級一點就用審美偏好衍生的就是品牌。但其實不全面,更深一層產品也是一套權責利系統的匯聚點。這在 C 端產品上體現的沒有 B 端明顯。
在過去很少被提及,因為經濟體系裡只有一種智能體:人。整個經濟體系都按照人、法人來确定的權責利。但現在這套體系其實是碰到了新的挑戰,人工智能體的崛起讓這種權責體系出現了裂痕,并且運轉滞澀。
最簡單的例子是過去經常說的自動駕駛,用戶、廠家、自動駕駛服務提供商之間會產生新的復雜權責利再平衡。(原來事故的責任基本是用戶的,誰開誰負責,用了自動駕駛後就不行)
這會非常麻煩,因為人工智能并非權責利的主體,但似乎又得承擔對應的責任。這就導致潛意識的每家公司都嘗試拿技術來對衝,讓某些壞的事好像可以不發生,但其實這和堂吉诃德戰風車差不多,基本不可能。
而和用戶、甲方權責利的再平衡其實是會像指揮棒一樣決定公司有限資源分配的導向性的。(事實上形成特定位置的一般性社會成本)
投入產出不好,還不得不幹的情形,豈不尴尬?
這種尴尬的核心原因就是用技術沒辦法完全對衝掉的權責。
對衝不掉的權責
為什麼說技術不可能完全對衝掉權責呢?
這固然是因為技術總是有個成熟過程,但很可能更關鍵的原因在于但數字和智能讓問題顯性化的同時,權責被放大了。
面對可以清楚表示的數字結果時每個客戶都會希望無限制的解決問題,而這種限度在過去是被抑制了的。
我們可以拿客服舉個例子:
當雇傭幾千上百的人做客服的時候,服務自身必然有良率問題。但這個時候大家基本能接受一定的錯誤,每個人都知道人會出錯,再加上客服人員還不好找,大家對這個良率就保持了一定的容忍度。假如客服人員服務不好丢失了一單,那最多辭退對應的客服人員或者扣錢。很難向客服追讨造成的損失。
當把客服換成人工智能體後,事情還是那個事情,但權責關系就默默的發生了些變化。
即使人工智能體的良率超過了過往的人工,從甲方的角度看,也還會有足夠的動力向提供人工智能體服務的公司追責。而後面的技術公司就得想盡辦法讓人工智能體不出錯。
這就是用技術對衝權責。
本質是用技術解決近乎無限的領網域問題。越到後來越變成搗糨糊,因為搞不定。人工智能這行業從智能音箱的喚醒開始就不停的反復這故事。
而實際情況是即使是古老的搜索引擎如果要求不出錯比如某類内容出現一次就滅掉,那谷歌、百度這樣的公司都不知道死多少次了。
但這種權責體系的容忍度其實有非常多的成因,有歷史的文化的商業現實的,十分剛性,不太可能改變。而如果它不能改變,那就并不怎麼适合純粹的人工智能體。能想到折中方法就是把人再塞回去,即使這個人什麼不幹,只做做樣子,那也是他在履行工作職責,人工智能體服務于他,他對所有產出負責。
這樣一來,選擇和定位就很關鍵,因為權責系統本身就是成本、方向和客戶滿意度(" 想都是問題,幹才是答案 " 是錯誤的,雷軍說也不行幹就完了不對的老話題)。在幻覺本就是智能的一部分的前提下,真跑到權責系統非常沉重的領網域,那其實是事倍功半的。
基于這個視角,我們還可以再拔高一點,談一點新技術的應用模型。
新技術的應用模型
在探讨應用模型的時候我們先回到人類本身。
人類文明的核心子系統:政治經濟文化其實全是先虛後實,實又促虛這麼反復倒騰來的。回到 3 百年前那有什麼三權分立、自由民主、社會主義,當然也不會有汽車、高鐵、自行車。
這些在想象和某種邏輯合理性的基礎上,加上另外一波人找到了想象到物理定律、商業遊戲之間的聯系,然後想象就會照進現實。火車、電、汽車、手機等差不多都是這麼來到了世界上。
然後我們再截取 1912 年 2 月 12 日,溥儀退位這個時間點回溯,看看想象的作用。
今天對我們影響至深的產品很多其實都是 1912 年以前發明的,產品上包括蒸汽機、汽車、電、青黴素、電話、攝影機、電池等,人物則包括諾貝爾、愛迪生、特斯拉、福特等。這些產品出世後大致是不順的,比如蒸汽的汽車就經常爆炸、愛迪生曾經主力攻擊交流電危險容易電死人,但相對寬容的環境讓這些產品都存續了下來。
想象下如果都是慈禧等認為火車回幹擾祖宗風水的觀點,那就不可能會有這種多樣化。大清朝用文字獄等對思想的鉗制其實是有成效的,一定程度上了達成了自身希望的穩定性,但穩定性很好的同時整個系統就效能很差,1912 溥儀退位可以看成是這種效能差的結果。
這給我們什麼啟示呢?
新技術在一般性社會成本低的地兒開始更合适。權責系統越寬松,試錯成本越低,越有助于新技術驅動的不成熟產品轉起來。
整體一般性社會成本的事很復雜,這裡不展開。(就是怎麼避免在火車出現的時候,堅信它會破壞風水。)
對于創新主體的個人,顯然的要規避復雜權責系統。
因為技術不成熟如果還要用它來對衝復雜權責的風險,那肯定吃力不讨好。
回到人工智能更具體一點會是什麼樣呢?
環境本身的寬松與否在這個時間點看着也許不關鍵,復雜權責系統也許還更容易形成現金流。但越往後可能會更關鍵。因為潛在智能飛輪會起作用,所以這就真的是 1.01 的 99 次方和 0.99 的 99 次方的差别。
凱文凱利在科技想要什麼裡表達了這樣一個觀點,那怕科技帶來的好處只多餘壞處一點點,那随着它本身的強大,那影響的結果也是非常顯著的。
對人工智能體也是一樣,這一點點差異到後面可能就是智能飛輪轉不轉的起來的差異。
簡單說就是屬于人工智能自身的應用模型是:要找幻覺有益,權責對衝沒那麼復雜的領網域,然後由内而外的成長,而不是揠苗助長。
小結
從這個角度看,确實幻覺就是智能,至少是智能飛輪的原動力。很多時候恰恰是幻覺給了我們一種智能的感覺,徹底的去除幻覺還保持智能,就真的是得達成一種超級單一體(克裡人的終極智慧),這是很好的理想,但我覺得如果假設人工智能不可能建成完備的世界模型,那去除這種幻覺就是不可能的,所以與其指望用技術解決這問題,就不如根據技術的進展修正應用模型。