今天小編分享的科技經驗:“皮囊之下”的可信AI:社會美德和創造經濟繁榮,歡迎閲讀。
《皮囊之下》這部電影,講的是一個外星人冒充人類,到處抓人類的故事。
外星人叫斯嘉麗,她假扮成人類,靠誘惑男人然後把他們吃掉。影片一開始她就是這麼幹的。然後她通過問一些家庭和工作的事情,表現出她像個機器人一樣。随後,斯嘉麗開始關注人類的情感,她開始試着吃人類食物,想弄清楚人的内心需求,學習人的行為。她甚至開始談戀愛,最後反被人用火燒死。
故事很恐怖,不建議看。
今天,恐怖的可不是電影故事,而是我們身邊出現了各種各樣的 " 斯嘉麗 "。在某些場合中,她化身為你的親朋好友出現在你的螢幕中或者聲音中,或者冒充化身你出現在别人的世界裏——要錢。
這些斯嘉麗們比電影裏的斯嘉麗更容易吃掉我們——因為他們有 AI 技術。
今天的 AI 和深度學習的快速發展,已經可以部分冒充人類,以假亂真。例如通過生成逼真的視頻和語音,可以欺騙我們的眼睛和耳朵,讓我們以為自己正在與另一個人交談。或者給一個人換臉出現在視頻中,讓 TA 説一些本人實際上從未説過的話,做一些本人未做過的事。
這被稱為 " 深度偽造 "(deepfake)。
類似于 " 深度偽造 " 這樣高超的大規模造假技術,其中藴藏了巨大的倫理風險。人應該有權知道自己是在與誰打交道,以維護基本的尊嚴和自主性。比如在使用智能客服時,企業需要明确告知人們,他們正在與一個數字人打交道。如果有需要,他們有權要求切換到真人服務。
這涉及 AI 使用過程中如何保護人的權益的問題。
電影《Her》劇照
2024 年 4 月 23 日,北京互聯網法院一審開庭宣判全國首例 AI 生成聲音人格權侵權案。明确認定,在具備可識别性的前提下,自然人聲音權益的保護範圍可及于 AI 生成聲音。AI 生成聲音可識别性的認定應綜合考慮行為人使用情況,并以相關領網域普通聽眾能否識别作為判斷标準。
這個判例促進各界開始更多地關注 AI 透明度的問題,還包括數據、算法、身份和人機互動過程的透明,接受嚴格的管制。
面對越來越多的 AI 應用的現實場景,有關透明度有待求證的一個重要問題是:在知情或不知情兩種情況下,人們是更願意與人合作,還是與 AI 合作?哪種合作效果更好?進一步,在社交方面,相比于人類決策中廣泛存在的偏見和情緒波動,AI 會不會是一個比人類更好的合作方?
為了弄清這些問題,阿聯酋卡裏發(Khalifa)大學的 Ishowo-Oloko 等人設計了一個實驗,邀請玩家參與一個有算法機器人參與的多輪博弈(至少 50 輪)的囚徒困境遊戲。其中機器人的行為由名為 "S++ " 的強化學習算法決定。
實驗人員構建了四個組别:與他們知道是人類的人一起玩;與他們知道是機器人的機器人一起玩;或者與他們認為是機器人的人一起玩,以及與他們認為是人的機器一起玩(如表 1 所示)。
表 1 分組情況
實驗結果顯示,在經歷 50 輪博弈之後,從選擇合作策略的比例看,其績效排名為:第 4 組 > 第 1 組 ≥ 第 2 組 > 第 3 組。
與此同時,從多輪博弈結果的變化來看,只有第 4 組的最終合作水平高于初始水平(從 0.517 到 0.537)。第 2 組比初始水平略有下降(從 0.432 到 0.416),但總體保持在一定的合作水準 ( 0.4 ) 上。但是第 1 組(從 0.525 到 0.422)和第 3 組(從 0.452 到 0.334)均出現明顯的下降。可見相比于人與 AI 代理,人與人的合作更難維持。
基于實驗結果,Ishowo-Oloko 等人認為,在 AI 應用中,效率與透明度之間存在内在的衝突:如果我們不了解對手是誰時(透明度低),機器人在誘導合作方面比人類做得更好,人機系統工作效率更高。而一旦機器人暴露其真實身份(透明度高),人類合作意願會明顯下降,整體效率降低。
事實上,從實驗對象對合作夥伴的傾向性選擇,我們還可以深刻地領會到,它折射出了人們對 AI 代理的信任度不足的現實。人選擇跟誰合作,背後是信任的問題。根據日裔美籍學者弗朗西斯 · 福山的觀點,信任度不足,會成為一個國家經濟繁榮的障礙。他曾在《信任:社會美德與創造經濟繁榮》一書中明确反對技術統治論者的觀點:
" 當信息時代的最熱心的宣揚者們舉杯慶祝等級和權威的垮台時,他們忽視了一個關鍵因素:信任,以及它所隐含的道德準則。群體是以相互的信任為基礎而產生的,沒有這個條件,它不可能自發形成 "。
但福山當時關注的僅僅是人與人之間的信任,而沒有涉及人與 AI 代理之間的信任。他沒有考慮到,如果技術發展成為一個相對獨立的主體參與社會分工,人與技術之間的信任度是否構成實現某個經濟體繁榮的必要條件?
基于現有研究和實踐觀察,我們有理由相信,随着 AI 技術的發展,未來的社會繁榮離不開人對 AI 的信任,以更好地發揮 AI 潛力。而這種信任的構建,與人際信任具備高度相似性。
電影《AI》劇照
已有研究發現,即使用户完全知道 AI 代理提供的信息是由其設計者編程的,他們仍然會像評估人類一樣來評估 AI 代理本身 ( 而不是其所有者或設計者 ) 的可信度。用户對待他們與 AI 代理互動的方式類似于與人類的互動。例如,人們可以感知 AI 代理所表現的人格與自己的人格之間的相似性。而且人們在評估 AI 代理的可信度時,會采用與評估人類銷售人員或顧問相同的信任标準。
因此,我們不妨将現有建立人際信任的方法,移植應用于 AI。
例如我們可以認為人們對 AI 代理的信任也來自兩個方面:認知和情感。
基于認知的信任建立在用户理性評估的基礎上。人們會搜集證據,以合理化自己 " 在哪些方面和哪些情況下 " 可以信任對方,由此構建信任。比如我們可以對 AI 某方面的能力進行反復檢驗,看看他能否誠實地處理用户的需求,随機應變地完成任務,以及完成的質量如何,依據這些反饋信息調整自己對它的信任程度。因此,這種形式的信任主要源于用户對 AI 代理的深入了解。
基于情感的信任則更加微妙,是指人類與 AI 代理之間的情感紐帶。此類信任原是指一個人對伴侶的信任,其特征是安全感和對彼此關系的感知強度,從而產生心理依戀。這種心理依戀不是由推理和理解產生的,而是由感覺和情緒產生的。此外,這也是一種基于互惠準則來評估他人可信度的非理性方法,即你應該以他人對待你的方式對待他人。因此,可以把它看成認知信任的 " 信念的飛躍 "。
那麼,人有無可能對 AI 產生所謂的情感信任?
種種迹象表明,它取決于 AI 代理承擔的角色。在服務類 AI 代理中,如果 AI 能讓用户感知到心理上的親密和温暖,就可以讓用户對 AI 產生與對人相似的心理依戀。各類科幻電影(例如《她》《機械姬》等)都在述説着此類故事。
至此,我們發現,在可信 AI 的世界裏,需要的不僅僅是理性。
更重要的,還要有人的情感。
電影《機械姬》劇照