今天小编分享的科技经验:“皮囊之下”的可信AI:社会美德和创造经济繁荣,欢迎阅读。
《皮囊之下》这部电影,讲的是一个外星人冒充人类,到处抓人类的故事。
外星人叫斯嘉丽,她假扮成人类,靠诱惑男人然后把他们吃掉。影片一开始她就是这么干的。然后她通过问一些家庭和工作的事情,表现出她像个机器人一样。随后,斯嘉丽开始关注人类的情感,她开始试着吃人类食物,想弄清楚人的内心需求,学习人的行为。她甚至开始谈恋爱,最后反被人用火烧死。
故事很恐怖,不建议看。
今天,恐怖的可不是电影故事,而是我们身边出现了各种各样的 " 斯嘉丽 "。在某些场合中,她化身为你的亲朋好友出现在你的螢幕中或者声音中,或者冒充化身你出现在别人的世界里——要钱。
这些斯嘉丽们比电影里的斯嘉丽更容易吃掉我们——因为他们有 AI 技术。
今天的 AI 和深度学习的快速发展,已经可以部分冒充人类,以假乱真。例如通过生成逼真的视频和语音,可以欺骗我们的眼睛和耳朵,让我们以为自己正在与另一个人交谈。或者给一个人换脸出现在视频中,让 TA 说一些本人实际上从未说过的话,做一些本人未做过的事。
这被称为 " 深度伪造 "(deepfake)。
类似于 " 深度伪造 " 这样高超的大规模造假技术,其中蕴藏了巨大的伦理风险。人应该有权知道自己是在与谁打交道,以维护基本的尊严和自主性。比如在使用智能客服时,企业需要明确告知人们,他们正在与一个数字人打交道。如果有需要,他们有权要求切换到真人服务。
这涉及 AI 使用过程中如何保护人的权益的问题。
电影《Her》剧照
2024 年 4 月 23 日,北京互联网法院一审开庭宣判全国首例 AI 生成声音人格权侵权案。明确认定,在具备可识别性的前提下,自然人声音权益的保护范围可及于 AI 生成声音。AI 生成声音可识别性的认定应综合考虑行为人使用情况,并以相关领網域普通听众能否识别作为判断标准。
这个判例促进各界开始更多地关注 AI 透明度的问题,还包括数据、算法、身份和人机互動过程的透明,接受严格的管制。
面对越来越多的 AI 应用的现实场景,有关透明度有待求证的一个重要问题是:在知情或不知情两种情况下,人们是更愿意与人合作,还是与 AI 合作?哪种合作效果更好?进一步,在社交方面,相比于人类决策中广泛存在的偏见和情绪波动,AI 会不会是一个比人类更好的合作方?
为了弄清这些问题,阿联酋卡里发(Khalifa)大学的 Ishowo-Oloko 等人设计了一个实验,邀请玩家参与一个有算法机器人参与的多轮博弈(至少 50 轮)的囚徒困境游戏。其中机器人的行为由名为 "S++ " 的强化学习算法决定。
实验人员构建了四个组别:与他们知道是人类的人一起玩;与他们知道是机器人的机器人一起玩;或者与他们认为是机器人的人一起玩,以及与他们认为是人的机器一起玩(如表 1 所示)。
表 1 分组情况
实验结果显示,在经历 50 轮博弈之后,从选择合作策略的比例看,其绩效排名为:第 4 组 > 第 1 组 ≥ 第 2 组 > 第 3 组。
与此同时,从多轮博弈结果的变化来看,只有第 4 组的最终合作水平高于初始水平(从 0.517 到 0.537)。第 2 组比初始水平略有下降(从 0.432 到 0.416),但总体保持在一定的合作水准 ( 0.4 ) 上。但是第 1 组(从 0.525 到 0.422)和第 3 组(从 0.452 到 0.334)均出现明显的下降。可见相比于人与 AI 代理,人与人的合作更难维持。
基于实验结果,Ishowo-Oloko 等人认为,在 AI 应用中,效率与透明度之间存在内在的冲突:如果我们不了解对手是谁时(透明度低),机器人在诱导合作方面比人类做得更好,人机系统工作效率更高。而一旦机器人暴露其真实身份(透明度高),人类合作意愿会明显下降,整体效率降低。
事实上,从实验对象对合作伙伴的倾向性选择,我们还可以深刻地领会到,它折射出了人们对 AI 代理的信任度不足的现实。人选择跟谁合作,背后是信任的问题。根据日裔美籍学者弗朗西斯 · 福山的观点,信任度不足,会成为一个国家经济繁荣的障碍。他曾在《信任:社会美德与创造经济繁荣》一书中明确反对技术统治论者的观点:
" 当信息时代的最热心的宣扬者们举杯庆祝等级和权威的垮台时,他们忽视了一个关键因素:信任,以及它所隐含的道德准则。群体是以相互的信任为基础而产生的,没有这个条件,它不可能自发形成 "。
但福山当时关注的仅仅是人与人之间的信任,而没有涉及人与 AI 代理之间的信任。他没有考虑到,如果技术发展成为一个相对独立的主体参与社会分工,人与技术之间的信任度是否构成实现某个经济体繁荣的必要条件?
基于现有研究和实践观察,我们有理由相信,随着 AI 技术的发展,未来的社会繁荣离不开人对 AI 的信任,以更好地发挥 AI 潜力。而这种信任的构建,与人际信任具备高度相似性。
电影《AI》剧照
已有研究发现,即使用户完全知道 AI 代理提供的信息是由其设计者编程的,他们仍然会像评估人类一样来评估 AI 代理本身 ( 而不是其所有者或设计者 ) 的可信度。用户对待他们与 AI 代理互动的方式类似于与人类的互动。例如,人们可以感知 AI 代理所表现的人格与自己的人格之间的相似性。而且人们在评估 AI 代理的可信度时,会采用与评估人类销售人员或顾问相同的信任标准。
因此,我们不妨将现有建立人际信任的方法,移植应用于 AI。
例如我们可以认为人们对 AI 代理的信任也来自两个方面:认知和情感。
基于认知的信任建立在用户理性评估的基础上。人们会搜集证据,以合理化自己 " 在哪些方面和哪些情况下 " 可以信任对方,由此构建信任。比如我们可以对 AI 某方面的能力进行反复检验,看看他能否诚实地处理用户的需求,随机应变地完成任务,以及完成的质量如何,依据这些反馈信息调整自己对它的信任程度。因此,这种形式的信任主要源于用户对 AI 代理的深入了解。
基于情感的信任则更加微妙,是指人类与 AI 代理之间的情感纽带。此类信任原是指一个人对伴侣的信任,其特征是安全感和对彼此关系的感知强度,从而产生心理依恋。这种心理依恋不是由推理和理解产生的,而是由感觉和情绪产生的。此外,这也是一种基于互惠准则来评估他人可信度的非理性方法,即你应该以他人对待你的方式对待他人。因此,可以把它看成认知信任的 " 信念的飞跃 "。
那么,人有无可能对 AI 产生所谓的情感信任?
种种迹象表明,它取决于 AI 代理承担的角色。在服务类 AI 代理中,如果 AI 能让用户感知到心理上的亲密和温暖,就可以让用户对 AI 产生与对人相似的心理依恋。各类科幻电影(例如《她》《机械姬》等)都在述说着此类故事。
至此,我们发现,在可信 AI 的世界里,需要的不仅仅是理性。
更重要的,还要有人的情感。
电影《机械姬》剧照