今天小编分享的科技经验:AI的误用,看来是真的开始了,欢迎阅读。
怎么把 AI 变成一个良性的商业模式,仍然还在艰难探索中,但我发现 AI 的误用是切实地开始了。
之前,网上流传着一个视频:
我本来就预感这东西会越来越多,没想到都这么生动了。
AI 成为监工和鞭子
有些价值体系下,其实特别容易让这事发生。
下面两种价值观:
价值观 1:
你辞职啊,我秒批。
我为什么要考虑员工的家庭,我又不是你婆婆、也不是你妈妈。
你可以不用承担重要的工作,但涨薪的时候就没有你什么事。
价值观 2:
如果你业绩好,你可以永远不需要去加班加点,公司永远是爱你的,永远给你非常好的收入待遇。如果你业绩没那么好,只达到了平均水平,你只要拼搏,公司永远不会辞退你。但是业绩不好,又从来不拼搏的人,这家公司永远不能容忍,一个(公司都)不能容忍,都会逐步通过各种手段全部淘汰出局。
这些价值观下面,上面视频中的手段会以公平的名义推进:
当你的行为足够透明,并且可以数字计量,那我就可以足够公平,赏罚清楚。
你上班都睡觉了,你还是认真负责么?有事了你也不加班加点,你还是认真负责么?你都不爱公司了,公司为什么爱你?
人到底应该不应该被充分量化
这是一个管理学者甚至《组织行为学》教材也不怎么提及,但却无比现实的话题。
人在办公情境下到底应不应该被充分量化?
各种技术的发展已经把我们推到了必须面对这个问题的时候。
外卖小哥、滴滴司机、抖音主播等都是先行者,每个人都已经在这个问题里面了。
是算法,而不是人在做对应的管理。
如果在各个平台上把人充分数字化是合理的,那为什么办公室就不行了?
我表达下我自己的观点。
这里不做任何道德审判和法律审判,那些留给对应专家好了。
我的观点是:
第一,度量结果,而不是人的行为是没有问题的,也是应该的。
销售额、系统的无故障时间、流量、外卖的好评率、差评率等必须被度量,形成合理的反馈,然后好继续判断应该采取什么措施。
第二,度量行为过程细节是错误的。
就是像视频里那样,把人的活动都录下来然后反复做分析,这是错误的。
这可以联想到其它的事。
假如某个国家,四处都是窃听器,那这个国家是不是就可以防止腐败?
假如腦波技术成熟了,不停扫描腦波是不是就可以防止恐怖活动?
为什么这是错误的,和生物特性有关。
被监视先天就会关联到不信任,然后产生的就是不安全感。
人的行为是充满缺陷的,这些缺陷的暴露反过来又会变成彼此攻击、找茬的道具,于是负反馈会大量发生,进一步强化不安全感。
不安全,动摇的可是人类需求中最基础的部分。
这部分一动摇随后必然走入破坏性心理自卫:推诿、逃避、忧虑、攻击、冷漠。
其实,如果有条件可以统计这类系统上线后组织的特征,但我个人现在没办法把这个变成研究项目。
最可能产生的结果
在这种类似集中营的管理方法下,每个人既不会有安全感,也不会有责任感、归属感。
正常人大概率都会把这个工作看成糊弄下、混口饭吃的营生。
先是有能力的肯定逃走,没选择的会留下。
留下的呢,会在被摄像头定义的责任里面工作,多一点估计也不愿意。
还有一部分会开始找系统或者公司的漏洞,研究离职的时候怎么报复回来,因此离职的时间点会成为矛盾集中爆发时期。
哪些事不可能干好呢?
对于需要复杂协调的事,大家会比较躲事,不会先考虑怎么把事干好,而会先考虑怎么规避责任。
隐含的内部对立加剧,内部耗散快速增加。
对于需要开拓的事,这时候大家的基础心态是等待上司派活,但上司离现场太远,创新大概率是不靠谱的创新。现场和决策一脱节,基本不太可能做出真的创新和改善。
从有用没用的角度看,既然做监工和鞭子,那就必然只能做匹配监工和鞭子的事。
把这模式套在办公室里面,不是一点用没有,但大概率会一地鸡毛。
组织需要是个生命体
彼得圣吉在《第五项修炼》里举了一个特别好玩的例子,他说(大致):
美国人的汽车曾经被日本人打得稀里哗啦,然后开始拆日本车。拆完日本车后发现发动机边上的三个螺丝在日本人那里是三个一样的螺丝,而在美国人这儿就是三个不一样的螺丝,反向一追溯就发现没有任何理由,就是因为是三伙不同的人做的。每伙人自己做的都对,就是放一起不对。越分散切块,这类三种不同螺丝的情况就越多。
越用 AI 强化偏机械的刚性,上面的问题会越严重。
除非是极少数的搬砖工作,单纯地强化自顶向下的刚性,柔性的彻底丧失,会导致非常严重的后果。
从旁观者角度看,好几个现在知名的互联网大公司里这问题已经很严重了。
然后却还在强化刚性,强化老大的英明神武。
南辕北辙式解决问题,问题是不会解决的,只可能更严重。
什么是不误用
英国人最先发明的坦克,但看起来英国人是把它当能动弹的大炮用,所以在索姆河之后也没起什么太大作用。
到了德国人手里,德国人跳出了既有思维的窠臼,把攻击和速度结合,全面更新了战法,就变成闪电战。
当心里总是期望一个更好的鞭子的时候,那就不管看到什么,都会想到这个这东西可以做鞭子。
在企业级生产关系领網域,真想不误用,首先要有新的构想。
我之前曾经把这样的新系统概括为企业的智能原生化。
过去的企业基本是按职能做切割,即使搞成 BU 内部也还是按职能切割,只不过责任和结算单元变了。
AI 越发展,这种结构越是生产力的障碍。
企业的智能原生化如果要概括是下面几点:
1. 匹配各个职责的角色 Agent 化。
2. 形成一个超级的智能中心。各种结果的反馈要充分实时反馈到这里来。最终的决策分层分级。AI 能做的 AI 做,AI 不能做的人做。
3. 重构人、AI 的职责边界。
1~3 螺旋递进逐步放大。最终体现出的特征是智能优先、万物皆数、实时反馈与中心决策。
在这个过程中,人向 AI 让渡越来越多的职责和权利。
一个老问题:人去哪儿?
有人会问个老问题:
如果企业里人越来越少,AI 干得越来越多,那人干什么去?
这话题这里不展开,就简单做个科幻式的回复:
世界经济每年平均增长 5% 是个上限,拿过去几十年的现实来看,基本达不到。
5% 什么概念呢?
即使 5%,100 年也就增加 131 倍。
环境、人口、资源等能不能抗住还不好说,然后很可能就没机会造戴森球了。
如果把 100 倍经济增长压在 10 年里面,在过去的技术条件下是没可能的。
加上 AI 没准就真行。
只要 AI 用对地儿,更多地创造新领網域,提升生产率。
关键是这种生产力要有出口并形成循环。
如果是开头那种用法就麻烦了,大家都那么用,整体经济不但不会增长,还有衰退的风险,因为整体生产率会变低。
小结
在 AI 的各种应用里,对企业的重塑可能比过去互联网还要大。如果我们经常用财务軟體,就会知道这东西和化石一样,其实真的没走多远。互联网对企业的重塑是在既定脉络下的,AI 的重塑则是解构性质的。企业里人都没了,还不是解构性质么?所以到底在企业里怎么用 AI,业界确实可以开始思考这个问题了。