今天小編分享的科技經驗:男性和女性的評論區不一樣,算法連這也不放過了?,歡迎閱讀。
前兩天,一個老生常談的話題引爆了互聯網,連續兩天上了微博熱搜。
它叫「 信息繭房 」。
不少人之前就聽過這詞,也了解過它,但這次大家反應這麼大,是因為這是他們第一次,如此直觀地面對信息繭房。
事情是這樣的。
有網友發現,在一個内容關于情侶吵架的視頻下方,不同賬号看到的評論區是不一樣的。
他的賬号看到的評論區,靠前的評論都出自于男性網友,立場也都是從男性出發;女朋友賬号看到的評論區,則恰恰相反。
左男右女 ▼
在這條微博下面,有很多網友質疑,這無形中會不會影響我們判斷。
第二天,有位博主看到這視頻後,決定做個測試。
她注冊了一個新抖音号,關注了一笑傾城,不斷給老年人視頻點贊,在網絡世界裡喬裝成中老年人。
如此操作一個小時後,她發現自己進入了一個新世界。
在線 PK 的不再是年輕的主播,而是幾位毛發稀疏、頭頂锃亮的大爺;線上連麥的網友,也是差不多歲數的阿姨。
在一個大爺品茶的視頻下方,排在前列的評論,都來自于真實的中老年人。
但當博主切回自己的賬号,找到這條品茶視頻時,評論區的第一條卻是一個從未見過的評論。
這意味着,不一樣的年齡看到的評論區也不一樣。
事情發酵後,立馬引來了眾多網友的質疑。除了轉發和評論,他們還紛紛跑到原視頻評論區下,做起了測試。
有人問,能看到他評論的網友,是男是女;
有人貼出自己的評論區截圖,讓其他人看看是否一樣;
還有不少人聯想到之前的經歷,認定「 算法确實在定制評論區 」。
比如一位四川 IP 的網友說,每次刷到第一條評論都是吃個四川人。
也有一堆人表示難怪每次刷評論,發現别人都在虛空對線,合着評論區就不是一個版本呗。
甚至還有更「 陰謀論 」的說法,認為這是短視頻平台通過算法,故意挑起男女對立。
其實在聽說這事後,差評君也拿了三個同事( 1 男 2 女 )的手機做了測試。
但我們發現,在原視頻下方,除了個别評論的順序稍有不同,評論區整體來說是一樣的。
為了排除同 IP 的情況,我也找了幾十公裡開外的朋友測試,情況也是如此。
可能我們來遲了,或者還在灰度?
後來我也另外翻看了幾個博主,分别是美女主播、男科大夫、彩禮話題的律師。
這些主題相對容易引起性别對立,我想看看他們的評論區是否有網友說的「 性别定制 」。
結果在最後一位律師的評論區,我們才遇到靠前評論差别較大的情況,至于其他兩位,完全一致。
基于此和以往經驗,我不能說短視頻平台的評論排序是在故意推動什麼,但我可以說:
它絕非是完全按照熱度 & 時間的維度排序。
以往我們打開一些社交平台的評論區,會看到這樣兩個選項:熱度 & 時間。
但是在短視頻平台,用戶卻沒有選擇評論排序的權利。
比如抖音上熱度低的評論有時會在熱度高的前面;
類似情況也出現在快手。
我們是沒法判斷短視頻評論區是否接入了算法,但,要是連評論排序都不給用戶自主選擇的權利,這無疑也會加重信息繭房,進而帶偏大家的三觀。
首先要弄清楚的是,「 信息繭房 」不是算法時代的產物,它源自于桑斯坦 2006 年的書《 信息烏托邦 》,講的是一個現象:
公眾只會注意自己選擇的東西和使自己愉悅的領網域,久而久之,會将自身桎梏于像蠶繭一般的 " 繭房 " 中。
而算法的出現,會加劇「 信息繭房 」形成。
因為我們不斷被投喂自己喜歡看的,想要看的東西。信息輸入一旦單一化,我們看事情的維度也會變得單一,思維就會狹隘。
德國電影學家 Siegfried Kracauer 寫過一本書《 電影的本性 》,當中講到一個故事。
有導演拍了部城市小短片,放給從沒接觸電影的非洲土著居民觀看。
影片裡展示的是燈紅酒綠,高樓大廈,結果看完後觀眾對這些毫無反應,只熱烈讨論短片中短暫出現的一只雞。
導演自己都不知道短片裡會有一只雞,後來發現在某 1 秒鏡頭的角落晃過一只雞。
為啥土著人關注到了雞?因為他們只認識雞,所以雞成了主角,不認識的高樓大廈變成了背景。
後來電影學中就有這麼一句話:你是否看見了一只雞。
意思是每個人在閱讀一部作品時,我們看到的,只是我們眼中的那只雞,它取決于我們所接收過的信息。
就好比讓大夥兒說一部自己最喜歡的電影,你也許會選《 奧本海默 》,你的朋友可能會選《 芭比 》,你的表舅可能選《 戰狼 》。
但不管是誰選,他的答案一定局限在「 他所看過的電影 」。
決定答案的,是經歷,是認知,是輸入進腦裡的信息。一旦算法讓你接收到的信息變得單一,你看待和分析事情就會變得片面。
片面是其一,其二,變得極端。
因為我們只能聽到自己認同的看法,在不斷重復不斷加深後,我們思維就會固化,排除異己,最終出現回音室效應,觀點在腦子裡放大,膨脹,變得極端。
在網絡上我們經常會看到,持不同意見的人吵得不可開交。
因為在他們目光所及的世界裡,他們都覺得自己是正确的,是大多數,和自己不一樣的人簡直不可理喻。
但真實復雜,包羅萬象的世界,事情并不是非黑即白的。
圖源 Caspar Camille Rubin on Unsplash
不知道大家有沒有同感,即使是在評論按熱度排序的年代,很多帖子裡,也經常出現整個樓層的三觀被高贊評論帶偏的情況,持相反意見的人排在很後面才能被看到。
因為人都有從眾心理,相對于宣揚自己的判斷,人們更傾向于不孤立自己。自己的想法,有時還要看到風向才能确定。
那如果評論區再幹脆不按熱度排序,交由算法統治了,又會是什麼樣子呢?
這會導致有共同的标籤( 性别、愛好 )的人,被拉在同一個群體評論區,會導致一些本該被你掃到一眼的相反意見完全消失。
人們更容易趨于一致,也更容易極端化,和别的群體會更割裂。
你可以想象一下,如果男女真的分開上網,雙方完全聽不見對方的想法,性别對立是會減小還是大大加深呢?
圖源 Gilles Lambert on Unsplash
當然,以上種種,對于大部分人來說,不過只是一種隐憂。
真正信息繭房的形成,條件比較苛刻。
清華大學和中國傳媒大學兩位學者曾發表一篇文章,提到「 信息繭房 」是個似是而非的概念,沒有有力的研究能證實它的存在,造成「 信息繭房 」的環境很難出現。
諸如 2019 年第 3 季度,抖音用戶數 6.06 億,快手用戶數 4.14 億,這些用戶重合率達到 36.4% ,這意味着人們一般不大可能處在一個能形成信息繭房的「單一信息環境 」裡。
畢竟,我們平時接受信息的方式有很多,各種社交媒體平台、朋友圈等等,這些都可以幫助我們去認知世界。
真正值得擔心的,則是一部分被忽略的群體,比如:中老年人。
他們往往處在低頻、單線程的社交環境中,他們認識互聯網世界的方式,除了微信可能只有某個短視頻平台。對于他們來說,長期只獲取自己「 應該 」獲取的信息,真的沒問題嗎?
不過,即便信息繭房形成條件苛刻,也并不妨礙大家關注和警惕它。
這就是個性化推薦的魔力,吸引用戶,留存用戶。
在當時,我們并沒有覺得這件事有啥不對勁,只覺得很新鮮,甚至有點沉迷。
之後這些年,越來越多 App 接入算法系統。從以「 關注體系 」為生的微博,到以專業戰報起家的懂球帝,再到以傳統論壇獲得網友們喜愛的虎撲,紛紛改版。
無數 App 寧可抛棄自己的傳統和基因,也一定要壯士斷腕般地投身算法。
雖然用戶一開始有些不适應,但日活和數據卻呈現出兩個字:真香。
久而久之,用戶也覺得可以接受,不過是内容變多變雜了嘛。
直到這次事件曝光後,大家才開始覺得不對勁了。
因為,它終于觸碰了觀眾的蛋糕。
眾所周知,視頻制作者和評論區發言者的話語權是不對等的。視頻中輸出觀點的影響力,評論區則需要一萬個持相同觀點的人才可以相提并論。
大家害怕算法剝奪自己聚起來發生的權利。
況且,算法沒有給你推薦的内容,你還可以搜索到。
但算法沒有給你推薦的評論,你很難再精準定位到它們。
它們沉底在幾千幾萬條的評論區,甚至可能被完全隐藏,在你的互聯網裡銷聲匿迹。
我明白,算法是當前信息過載的時代,簡化人們接受信息的必然產物,也是很多平台為了拉長用戶留存時間,早晚都會使用的技術手段。
但算法值得大家警惕,它像一個暗自入侵的機器人,從給你投喂視頻,到在潛移默化中影響甚至塑造我們的人格。
其實它無非就是一個數學模型,是可以調整和優化的,是能避免我們處在過于單一的信息環境中,只不過決定權在于它們背後的大腦罷了。
早之前,江湖上就流傳着一個段子:
互聯網的作用,原本是讓井底之蛙開一開眼界,認識一下井口以外的世界。可實際情況是成千上萬只井底之蛙通過互聯網互相認識,互相認同和肯定,并經過長久的交流之後達成共識:世界确實只有井口這麼大。
诙諧的背後,是沉重的事實。
但如今看來,算法似乎讓它變得,更沉重了。
>