今天小编分享的科技经验:当AI成为企业新员工,“搞砸”工作谁负责,欢迎阅读。
卢向华 / 文 数字经济时代,人的角色正在发生变化。当 AI 成为企业的新员工,人与 AI 的协同合作将逐渐成为生产过程中的常态。当碳基与硅基两种智慧碰撞,如何摸索出新的协作模式,以提升整体效率?如果人机协同的工作任务 " 搞砸 " 了,人类和 AI 之间又如何界定责任?
与 AI 一起工作,需要最优匹配模式
如果要让人机协作的系统变得更好,组织管理可以做些什么?
该领網域的研究尚处于初步阶段,大多数企业也仍在探索,成熟的相关研究较少。就目前笔者所了解的情况而言,人机协同中的组织管理可以归纳为三个主要方面:一是企业任务与人机系统的匹配管理;二是 AI 员工融入组织后,组织管理方式的调整;三是人和 AI 在系统中的责任管理。
首先需要考虑的是工作任务与人机合作模式之间的匹配管理。用户的异质性会影响人机协作的效果。而不同任务的性质也会对不同的人机协作模式,提出不同的要求。因此,组织需要根据任务的属性,调整人和 AI 在具体任务中的比重。
目前,大家普遍认可的任务匹配管理模式,主要包含可计算性、主观性及复杂性三个维度。
从可计算性维度看,如果任务本身需要大量计算,超出了人腦的处理能力,那么让 AI 来主导可能会更有效。举例来说,规划从地点 A 到地点 B 的路线时,人类可能有经验,但只能从几条已知路径中选择最优路线;AI 则可以枚举所有可能路径,并从中找出最优解,效果更佳。
从主观性维度看,如果任务具有较强的主观性或需要灵活应变,如医疗服务或餐饮服务,人类可能更适合扮演主导角色。
从复杂性维度看,复杂的决策场景需要考虑更多因素,关系也更加复杂。例如,在外卖快递调度系统或空间模拟计算等复杂任务中,人类很容易忽视相关因素,从而影响决策质量,这时增加 AI 的比重可能会更有利。
举例来说,最近的一项研究发现,创意评价类任务,相对模糊和主观性更强,即使使用了具有理论支持的可解释性人工智能,机器也无法模仿人类专家的判断,特别是在筛选出特别优秀的创意方面。这样的任务更需要由人类来主导。
然而,如果所有的创意评价都由人类专家完成,可能会导致案例过多,使专家感到枯燥和疲倦,从而影响他们的客观判断能力。
因此,这项研究提出了一个解决方案:可以先让 AI 筛除那些低质量的创意,减少专家的工作负担和乏味感。这样,专家就可以将更多精力集中在评估和筛选优秀创意上。
复旦大学管理学院一位年轻老师也进行过一个有趣的相关研究。他发现,在任务结果主要依赖于运气时,比如选课、抽卡娱乐、盲盒消费等,人们更倾向于选择由人工智能提供服务。因为人们认为,AI 的运气比人类更好,更有可能带来理想的结果。然而,在理财、医疗等需要一定能力完成的任务上,人们更倾向于选择由人类主导的系统来完成。
这一发现在一定程度上证实了,企业需要为不同类型的任务匹配不同的人机协作系统。
AI 让工作技能提升还是丧失
随着 AI 的加入,企业员工的组成,从传统仅有社会人转变为社会人与 AI 机器人的组合。这种情况下,企业将面对新的管理挑战,包括如何管理 AI 员工,以及如何调整组织策略以适应 AI 员工的加入。目前已有不少研究发现,在与 AI 合作之后,员工对公平性的感知和情绪都会发生很大变化。
例如,智能审计的引入可能会导致员工感到焦虑和不安全,从而抑制其自主创新的意愿,进而影响员工的绩效。在这种背景下,许多组织行为学领網域的学者开始研究,AI 员工的引入如何影响员工的心理状态、团队协作、领导力,以及人力资源的计划、招聘、培养和管理过程。
在这里,我分享两项最新的研究成果。这篇最新发表的研究探索了员工在企业引入智能知识管理系统后,如何适应工作的变化。研究发现,员工在与 AI 支持系统合作时,存在两种适应机制。
第一种是效益最大化机制,员工会最大程度地利用 AI 来提高自己的认知能力,从而提高工作绩效。第二种是干扰最小化机制,AI 破坏了员工原有的工作流程,导致员工感到角色冲突,进而使得他们的绩效受损。
研究进一步分析发现,采用效益最大化策略的新员工,其绩效提升速度最快;采用干扰最小化策略的老员工,其绩效相对也表现不错。
因此,前述建议企业在引入这样的 AI 系统之后,应该着力鼓励新员工更多地采用效益最大化的机制来应对 AI 系统。换言之,鼓励他们利用 AI 学习新知识,以提高工作绩效。对于那些已经熟悉原有工作流程的老员工,组织应该帮助他们通过 AI 来调整自己的工作框架和流程,从而降低角色冲突,缓解 AI 所带来的干扰。
与此相关的另一个话题是,在人机合作过程中,员工工作技能的变化管理问题。一旦 AI 接管了计算性强、重复性、结构化的任务,理论上的人类就可以转而从事一些更具有意义、更需要创造性的工作,以促进员工技能的提升。我们将这个现象称为 "AI 导致的技能提升 "。
举例来说,对于程式员而言,在 AI 的辅助下,他们可以将更多时间用于思考程式的业务逻辑,而不是花费大部分时间在修复程式中的错误上。然而,对于某些知识型员工来说,AI 并不一定会促进技能的提升,反而可能导致一种 " 去技能化 " 的趋势。
2023 年一项研究显示,医生在使用诊断辅助系统后,其独立诊断的准确性明显下降,因此 AI 辅助诊断系统的使用,实际上导致了医生的 " 去技能化 "。另一项研究也发现,手术机器人的引入大大减少了住院医师实际操作训练的需求,从而降低了医生的动手能力。
现在住院医生需要采取不同于以往的方式,来提高自己的动手能力。某位医生学者就提出过一个影子学习的方法,通过尽早专业化、抽象演练和监督实践的方法来培养医师的动手能力。
任务失败时,人与 AI 谁来负责
除了激励和培养员工以更好地适应人机协同工作的环境之外,对企业而言一个更大的挑战是,如何对人和 AI 的责任进行认定。特别是当服务失败时,到底谁来承担责任。
此前关于无人驾驶车出车祸之后的责任问题,就曾引发广泛的讨论。主流观点认为,AI 系统本质上是机器,无法承担法律责任,因此问责对象应该是系统背后的人或机构。然而,也有研究认为,当算法透明度越来越高后,AI 在一定程度上可对其所做的事情负责。
因此,当人和 AI 共同完成任务时,企业如何分配相应的责任就成为一个备受关注的问题。换句话说,企业是否愿意主动对 AI 的失败负起责任,将影响到人机协作系统的采纳和最终的绩效。
不过,这一问题涉及法律、政策、技术以及相关管理研究,尽管有很多讨论,但成熟可靠的研究实际上并不多见。我们团队目前试图在这方面展开一项探索性的研究,研究的场景是互联网医疗平台。
随着越来越多的互联网医疗平台采用生成式人工智能提供 AI 问诊服务,平台是否需要为 AI 问诊的责任提供支持,成为一个非常有趣的研究话题。
我们希望通过这项研究,探索互联网医疗平台是否愿意为 AI 问诊服务承担责任,以及这种决定如何影响患者使用平台的意愿。
我们计划在两个不同的场景下进行研究,分别是纯粹的 AI 问诊和 AI 与医生混合问诊。我们将通过一定方式来调控患者对平台承担责任的感知,并检验患者对平台的信任度和使用意愿。在研究过程中,我们还会引入 AI 问诊和医生问诊的感知中立性作为调节变量。
我们的理论假设是,在其他条件相同的情况下,当 AI 愿意为问诊质量承担责任,并且患者认为 AI 问诊更加客观中立时,患者更愿意使用互联网平台的 AI 问诊功能。这项研究仍在进行中,我们期待未来能够分享更多的成果。
综上所述,我们建议企业根据不同任务匹配不同的协作模式,并重新思考 AI 员工和人类员工合作下的激励和培养问题,以及做好 AI 系统的责任管理。
最后,借用 " 各美其美,美美与共 " 这句话,人类与 AI 协作的理想境界可能是 " 各智其智、各尽其长 ",即充分发挥人类与 AI 各自的优势,互相学习,从而提升人机协作的整体效能。
(作者系复旦大学管理学院信息管理与商业智能系教授、博士生导师)