今天小編分享的互聯網經驗:算法與用户:地主與農奴,歡迎閲讀。
文 | 鋅财經,作者|孫鵬越,編輯|大風
前不久,中央網信辦等四部門聯合發布《關于開展 " 清朗 · 網絡平台算法典型問題治理 " 專項行動的通知》,核心問題就是構建 " 信息繭房 " 防範機制,提升推送内容多樣性豐富性。
" 信息繭房 " 是哈佛大學凱斯 · R · 桑斯坦(Cass R. Sunstein)教授在其《信息烏托邦》一書中提出的概念:它是一個温暖、友好的地方,因為這裏都是自己喜歡看到和聽到的東西,對于觀點話題的讨論也不過是自己的回聲。
也就是説,平台算法利用用户的點擊、浏覽和搜索歷史,為用户分配其中一部分信息,再減少、忽略用户對其它信息的接觸,構建出一個信息封閉的 " 黑箱子 ":
你看到的,就是算法想讓你看到的;你的想法,也是算法潛移默化影響你的。
那麼,在這個 " 黑箱子 " 裏,你害怕嗎?
算法也是不斷進化的
在互聯網信息大爆炸的時代,知識已經變成俯仰可拾的信息流。
用户的難題不再是 " 在哪去學習知識 ",而是更新為 " 如何判斷知識的真假 ",這也給了算法的施展空間。
信息繭房形成的 " 回音室效應 ",哪怕你有再小眾的愛好、再離譜的想法,都能在算法的分配下,找到與你觀點相近的夥伴。
你點贊的圖文和短視頻,都是自己的 " 回聲 "。
每個人都看到他們樂意看到的東西,每個人都能在小圈子裏保持 " 自由 " 和 " 快樂 "。哪怕這個 " 自由 " 和 " 快樂 " 只是算法圈養你的栅欄。
更可怕的是,算法是會進化的。
算法 1.0 版本,是用户主動去選擇和收集,算法根據協同過濾(Collaborative Filtering),挖掘用户歷史行為,發現用户的喜好偏向,并預測用户可能喜好的產品進行推薦。也就是購物平台常見的 " 猜你喜歡 " 功能。
等到了算法 2.0 版本,就有大數據的加持,基本無需個人收集和選擇了,直接由機器按你的偏好推送。
不論你是什麼種族、什麼階層、什麼群體、什麼樣的觀點,算法機器只讓你看到你想看到的。每個人都覺得自己觀點是世界上最正确的,充分滿足并安慰你的精神需求。
當然,算法 2.0 版本不會承認自己打造出來一個 " 信息繭房 ",只會説這是 " 定制化觸達 / 垂直化推薦 / 精準化投放 " 的結果,是合理合法的商業工具。
抖音 / 快手的興趣推薦,看似中性的算法,實際上對不同群體的影響是截然不同的。
對于大部分 " 興趣廣泛 " 的用户來説,其被推送的内容或許是寵物、旅遊、數碼等等,當然也包括 " 黑絲女 " 和 " 腹肌男 "。至少在當下平台環境裏,後者比例要遠大于前者。
對于現實生活比較單一、生活内容重復、自控能力不強、信息獲取渠道單一的用户來講,這樣的算法推薦對他們的影響或許是極其負面的。
并且這類人群覆蓋面極為廣闊,有藍領、有中老年人、也有低齡階段中小學生。
他們在算法之下,他們很容易沉迷在 " 黑絲女腹肌男 " 繭房之内,甚至接收到 " 不合時宜 " 的信息。
比如,銀發族困于養生、健康和短劇,相信土豪真的會愛上保潔阿姨;
藍領們消耗一天體力後,躺在出租房裏沉迷擦邊直播間,花光工資也要當榜一大哥;
甚至還有一些中小學生們,過早接收到不應該是當齡該看的内容。
這些高密度人群如果被算法 " 毫無感情僅憑興趣 " 的推薦,将會帶來一連串社會性問題。
紅藥丸?還是藍藥丸?
如果説,你只能活在自己想要的世界裏,很多人覺得無所謂,不就是 " 奶頭樂 " 嗎?我就願意讓自己輕松一下,逃避一下殘酷的現實。
那如果説算法會影響到你的認知呢?
所謂的 " 認知 ",其實是信息量+處理信息的能力。你信息攝入的越多,那麼支撐你認知的知識體系就越有力。
如果你的信息攝入是充滿 " 誤導 " 的呢?
比如,現在打開抖音 / 快手等短視頻 App,刷出 10 條短視頻内容。如果 10 條裏面有 9 條,都是和 LGBT 運動相關,那你會不會認為 LGBT 已經是社會主流的性取向?異性戀其實才是性少數群體呢?
如果你完成對這些信息的攝入,形成了認知,恭喜你,那麼你就迎來了算法的 " 下半場 ":你如果否定它,就要推翻你的全部認知。
來源:倫敦藝術大學 UAL 實驗短片
有這麼一個諷刺冷笑話,很适合描述現在的算法。
" 小學時候同學們都愛看《西遊記》,大家都説唐僧袈裟是黑色的,有個同學強烈反對,非要説是紅色的,氣的班上的同學打了他一頓,後來他哭着把我們帶到他家裏,我們才赫然發現,這個世界上原來還有彩色電視機。"
是的,當你認為 " 黑袈裟 " 是真理的時候," 紅袈裟 " 就是異端、另類、是要被燒死的人,對不同聲音充斥着排斥,甚至敵視。
如果要讓 " 黑袈裟 " 知道真相,就要把他們的認知全部擊碎,掀開頭蓋骨,才能真正知道真相到底是什麼。
就像是《黑客帝國》,面對舒适的算法世界,以及殘酷冷漠的真實世界,那你會選擇藍藥丸,還是紅藥丸?
我相信大部分人都會選擇一切迎合自己的算法世界,哪怕它支配了你的全部信息。
地主還是農奴?
法國的經濟學家塞德裏克 · 迪朗(C é dric Durand)寫了一本書叫《技術封建主義》,他将算法背後的企業視為 " 地主 ",用户視為 " 農奴 "。
迪朗認為,算法和數字技術的應用,将用户變成了數字農奴。算法通過分析用户數據,推測用户行為,并将其轉化為利潤。用户在算法的統治下,失去了自主權和控制權,按照算法的邏輯進行行動。這種算法統治的現象,類似于封建社會中農民對土地的依附,将用户束縛在數字平台的 " 領地 " 之中,無法逃脱算法的控制。
" 地主和農奴 " 最典型的案例,就是外賣騎手和網約車司機。
他們覺得自己工作很自由,不受老板的監管,想幾點工作就幾點工作,一切完全取決于自己,好像獲得了某種自主權。
但其實,奴役者只不過從 " 企業老板 " 轉變成了 " 企業工具 ",除了遵循平台算法給出的訂單、路線與價格,他們别無選擇。
社會的輿論壓力,也被巧妙的轉移,變成 " 乘客和司機 "" 顧客和外賣員 " 之間的矛盾,似乎一切的訂單、路線與價格并不是由算法自主生成的一樣。
一切又回歸到迪朗和《技術封建主義》的核心主題:我們每個人在社會互動中形成數據不斷成為算法優化與決策的 " 養料 ",而社會互動又在被算法的結果 " 操縱 "。
如果你問如何才能擺脱算法的圈禁?
那麼只有将選擇的權利交付于用户,讓他們主動去選擇,而不是被動去接受所謂的 " 定制化觸達 / 垂直化推薦 / 精準化投放 " 等商業行為。
同時,最後還想重復問一遍:
" 你是選擇藍藥丸,還是紅藥丸?"