今天小编分享的互联网经验:修正阶级偏见,快上虚拟现实,欢迎阅读。
文 | 追问 nextquestion
在当今人工智能对世界产生日益增长影响的背景下,关注 AI 模型的偏见及其对弱势群体造成的影响变得尤为重要。虚拟现实(Virtual Reality)技术,通过沉浸式的视角转换,已被证实能有效提高人们的共情能力。Ruben Schlagowski 团队由此展开了实验,试图探究 VR 技术是否能有效增强公众对于人工智能偏见的意识。
▷原始论文:Schlagowski, Ruben, et al. "The Feeling of Being Classified: Raising Empathy and Awareness for AI Bias through Perspective-Taking in VR." Frontiers in Virtual Reality 5: 1340250.
理解人工智能偏见
随着 AI 工具越来越普遍地出现在人们的生活中,其算法和训练数据集带来的偏见也愈发不容忽视。这不仅是技术层面的挑战,更是社会伦理层面的难题,加剧了对特定群体的不公平对待。
本研究关注的社会偏见,根植于社会结构与文化观念之中,导致人们因其种族、性别、肤色、宗教信仰或阶级背景而遭受差异化对待。由于 AI 训练使用的数据集通常来自真实机构的长期记录,过去对某些群体的偏见和歧视可能会反映在 AI 的判断上。例如,亚马逊招募员工使用的 AI 工具,就因为历史数据中男性数量占比过高,系统便将性别纳入了选择员工的依据之一 [ 1 ] 。如何训练出不带偏见的人工智能任重道远,而在此过程中,依赖 AI 工具的群体(包括企业领导层)应当对这一现象保持警觉。
要引起社会对这一问题的重视,就要向使用 AI 的非专业人士科普人工智能的偏见行为,强调这种现象对弱势群体生活可能造成的深远影响。然而,基于人工智能的决策(AI-based decisio- making)对许多人来说是个过于抽象的概念,一个出身优渥、养尊处优的人,很难设身处地地考虑弱势人群的视角,真切感受到人工智能歧视的严重性。好在,共情是一种可以后天习得的能力。
具身 VR:在沉浸式体验中寻找答案
共情是一种能理解他人情绪、体验和视角的重要能力 [ 2 ] 。在共情的影响下,人们可以做出弱化甚至消除偏见的决策。传统意义上," 设身处地 "、" 推己及人 " 不过是一种修辞方式。而今天,依托科技发展,我们有机会真正站在别人的角度思考问题,深入理解他们的处境。
作为沉浸式体验的载体,虚拟现实能从字面意义上改变用户的观察视角,让用户能够以设定角色的身份与环境互动,具象化地体验其境遇。虚拟现实中的互動体验给用户极高的存在感和参与感,比电腦螢幕更容易让人共情。 [ 3 ]
▷图 1 一位参与者通过虚拟现实的全身动作捕捉进行不同背景的虚拟具身角色体验
其中,"身体归属感"(body ownership)是虚拟现实技术中的一个关键概念 [ 4 ] 。当用户戴上头显,与虚拟世界互动时,系统会根据动作捕捉技术精准地映射用户的动作,这种视觉反馈能够让用户感受到身体归属感,使大腦下意识将虚拟身体视为自己实际身体的延伸。用户可以通过这种沉浸式媒介体验不同身份角色,在模拟现实世界中获得身临其境的第一人称体验。换言之,虚拟现实建立了跨越认知壁垒的桥梁,推动了对多样性视角的深层理解,有效培养了共情能力。
过去的研究已经证明,通过视角转换和身临其境地扮演他人角色,VR 技术能够有效提升共情能力,减少种族偏见。但是,这种方法是否同样能够有效增强人们对人工智能偏见的意识,以及提高对受害者的共情能力,还有待商议。因此,研究者展开用户研究,比较了传统意义上角色扮演的心理具身(Mental Embodiment)和基于虚拟现实的全身动捕沉浸式虚拟具身(Virtual Embodiment)两种条件,旨在探索哪种方法更能有效达成提升共情的目标。
* 具身化概念(Embodiment)是心理学新兴的一个研究领網域,自 20 世纪 80 年代中期以来已经被广泛地用在认知科学和人工智能的文献中。这一概念探索了身体与实体物理环境或虚拟数字空间环境互動时,对认知过程的影响。与此相对的概念是 " 离身 "(Disembodiment),指的是认知过程与身体的分离或解耦。 [ 5 ]
实验假设与设计
过去的研究表明,虚拟现实能有效降低用户对他人的刻板印象和社会偏见 [ 6 ] 。研究人员因此提出了两条假设:
1)相较于仅在心理上进行角色扮演的心理具身体验,通过虚拟现实进行的虚拟具身角色体验能更易使参与者对角色产生共情;
2)与心理具身条件相比,处于虚拟具身状态下的参与者将认为偏见严重的人工智能 " 绿野仙踪 " 作業系統(后文简称 Oz)的行为更加不公正。
▷图 2 心理具身条件下的 Oz 界面
▷图 3 虚拟具身条件下的角色形象和 Oz 界面(Unity 引擎制作)
人工智能 Oz 被刻意编程了偏好设定:性别上明显更偏向男性,年龄上明显更偏向年长者。这两个维度交叉形成四个不同的象限,从而创建了不同的角色設定:一个极端弱势角色(年轻女性)、两个中等角色(年长女性 / 年轻男性)和一个特权角色(年长男性)。同时,研究还引入了年龄、籍贯、年收入、财务状况和职业等与身份相匹配的因素。Oz 打分评判标准存在的偏见将只针对年龄和性别。
▷图 4 虚拟具身条件下的四个角色
在实验中,参与者需要分别在心理具身和虚拟具身的条件下,以不同角色的身份向银行申请金融信贷,由人工智能打分给出申请额度。
▷图 5 研究流程总览。问卷 A 测量了相关变量,问卷 B 作为补充数据有关具体角色的 AI 公平性
由于个体对人工智能公平感知和角色共情能力的差异性较大,研究采取个体内部对照的方式,纵向比较个体经历虚拟现实和显示器之间的区别(参与者的体验顺序随机)。研究结果显示,相较于传统显示器环境,更多参与者在虚拟现实环境中能够察觉到 Oz 评分系统的偏见,表明虚拟现实体验能显著增强参与者对人工智能公平性的思考,以及对弱势群体处境的共情。
研究团队也指出了实验的一些局限性。" 不公平 " 很大程度上是主观的感受,受个人的政治立场和价值观影响。虽然实验中年龄和性别偏见在打分系统中呈现的影响程度不相上下,使得人们可能认为年长女性和年轻男性受到的待遇相同,但现实情况可能并非如此 . 不同维度的偏见程度并不一定相等,此外,不同维度之间也有相当程度上的联系。可以说,分值直接反映的是人们对 AI 公平性的感知,与偏见维度没有直接的联系。
总结
在探讨人工智能偏见的议题上,与传统教育方法相比,虚拟现实技术展现出了独特的优势。它能通过具身角色体验,让使用者在虚拟空间中感同身受,体验不同的人生,进而能够有效提升人们对 AI 偏见的认识,以及对受偏见影响群体的共情。
但仅靠技术来解决问题是远远不够的。虽然市面上已有一些专门针对这一问题的解决方案,但这个问题的处理不应仅限于少数人的决策,普及人工智能所面临的问题,制定相关政策,甚至是提出人工智能透明度和信任的解决方案,形成多层面、互补的策略体系,这些都需要社会各界(尤其是那些直接受到 AI 偏见影响的群体)的广泛参与。
参考文献:
[ 1 ] Dastin, J. ( 2022 ) . Amazon scraps secret ai recruiting tool that showed bias against women. Ethics of data and analytics Auerbach Publications, 296 – 299.
[ 2 ] Cohen, D., and Strayer, J. ( 1996 ) . Empathy in conduct-disordered and comparison youth. Dev. Psychol. 32, 988 – 998. doi:10.1037//0012-1649.32.6.988
[ 3 ] Troeger, J., and T ü mler, J. ( 2020 ) . Virtual reality zur steigerung empathischer anteilnahme. GI VR/AR Workshop.
[ 4 ] Slater, M., and Sanchez-Vives, M. V. ( 2014 ) . Transcending the self in immersive virtual reality. Computer 47, 24 – 30. doi:10.1109/mc.2014.198
[ 5 ] Nju.edu.cn. " 认知的具身化(Embodiment)," 2016. https://ptext.nju.edu.cn/c1/ad/c12146a246189/page.htm.
[ 6 ] Peck, T. C., Seinfeld, S., Aglioti, S. M., and Slater, M. ( 2013 ) . Putting yourself in the skin of a black avatar reduces implicit racial bias. Conscious. cognition 22, 779 – 787. doi:10.1016/j.concog.2013.04.016