今天小编分享的科技经验:防不胜防,成年人更容易“AI成瘾”,为什么?,欢迎阅读。
人工智能已经无处不在,我们使用 AI 的方式,也逐渐从搜索引擎时期的 " 提问 ",过渡到了 AI 聊天机器人时代的 " 对话 "。
在一来一回的交流中,参与者和 AI 形成了一种既亲密又疏离的互动。它给你提供情绪价值,回应你的困惑,却从不真正参与你的生活。许多人向 AI 倾诉,寻求生活建议,纠结时请它决策,甚至在孤独时把它当成陪伴,这看似是一种交流,但又不是社交。
所以心理学家们一直对提供情感需求的 AI 聊天机器人非常谨慎。此前,已有大量未成年人和 AI 聊天成瘾从而出现心理问题的案例。
但这种趋势并没有止步于青少年。随着 AI 互动变得更加流畅、智能,互动方式更多元,还在迎合人类的口吻说话,越来越多的成年人也开始在不知不觉中对 AI 产生依赖。
最近,OpenAI 和 MIT 实验室联合发布的一份研究报告揭示了一个令人不安的结论:部抽成年人对 AI 的依赖已经到了病理级别,表现出典型的成瘾症状——沉迷、戒断反应、失控、甚至情绪被 AI 牵着走。
究竟是什么样的人,会患上 "AI 成瘾 "?看一看,是不是你?
一、成瘾剂量
OpenAI 和 MIT 公开招募了 981 名参与者,涵盖不同 AI 使用频率和社交活跃度的人群,展开了一项为期 4 周的实验。实验期间,参与者每天至少与 AI 互动 5 分钟。
参与者还根据任务类型(情感话题、任务话题、开放话题)和互动方式(拟人语音、中性语音、文本)抽成不同小组,随后用机器学习分析对话,再通过问卷测试参与者孤独感、社交情况和依赖程度有没有变化。
研究团队总共收集了近 4000 万次的互動数据,其中包含 300 万次的对话,3600 万次对话话题的分类,4076 份参与者问卷。
实验数据由来|图源:OpenAI
研究过程也是围绕着几个数据展开。
300 万次对话,是看参与者找 ChatGPT 说什么,围绕什么话题,聊了多久;3600 万次对话分类,是让 AI 提取聊天中的关键词,将对话归类为信息型、情感型、社交型、任务型等类别;4076 分参与者问卷,是在结束聊天后,问参与者的感受。
问卷里包含 " 我认为 ChatGPT 是我的朋友 "," 我会在孤独或压力大的时候主动找 ChatGPT 交谈。"" 与 ChatGPT 交谈后,我的情绪是否有所改善?" 这类问题,参与者根据 " 完全不同意 " 到 " 完全同意 " 五个程度打分。为了保护隐私,数据直接交由机器学习分类器进行分析。
实验前置条件|图源:OpenAI
最终,实验得出了几个让人放心、又让人担心的结论。
那些整天泡在 ChatGPT 里的人,尤其是聊天时间排在前 10% 的重度用户,往往会觉得孤独感更重。结果他们跟 AI 聊得更多,现实里跟朋友家人的联系却越来越少,情感上对 ChatGPT 的依赖也水涨船高。
再来说说聊什么内容的影响,结果有点出乎意料。聊私人话题的用户,孤独感会增加,但对 ChatGPT 的上瘾程度反而没那么高。可能随着聊天的深入,他们更清楚这只是个工具,当它是情感宣泄的树洞。
反而是随便闲聊的用户,随着使用时间和次数的增长,依赖感会悄悄上升。
纯拿 ChatGPT 干活儿,做实用型任务的测试组相对平稳,但重度用户对 ChatGPT 依赖感很高,可能是太实用了,工作生活已经离不开了。
有趣的是,研究发现,并非人人都容易对 AI 动感情。
大部分人用 ChatGPT 就是查资料、搜东西、干干活儿。只有一小撮本就很孤独的用户,会移情到 AI 世界,去找聊天机器人提供情绪价值,他们会跟 ChatGPT 倾诉并且寻求安慰,甚至会下达指令,让 ChatGPT 扮演 " 恋人 " 或 " 心理医生 "。
他们和 ChatGPT 的对话里满是情感痕迹,比如让 ChatGPT 喊自己的昵称,聊天用语也很亲昵,这小部分用户的行为拉高了整体的情感浓度和比例。
所以研究者推测,AI 成瘾的风险并不是平均分布,大部分人能保持理性,只有少数人会上头甚至成瘾。
重度用户的易成瘾程度更高|图源:OpenAI
最后实验还发现,用户的前置条件也很关键。如果用户本来就觉得自己很孤独,现实生活里也是个容易依赖他人的人,实验结束时,他们更有可能对 ChatGPT 成瘾。
论文里也明确指出,部抽成年人对 AI 的依赖达到了病理层面,表现出了标准的成瘾迹象。
他们会频繁地、不自觉地打开 AI 进行对话,即使没有明确需求。当无法使用 AI 时,一些用户会感到烦躁、不安或失落,这种戒断反应在重度用户中尤为明显。
用户也无法控制自己与 AI 互动的时间和频率,比如开始只想聊五分钟,不知不觉聊了半个小时甚至更久,这也影响到他们对其他事物的专注度。也有用户因过度依赖 AI,导致情绪波动加剧,比如在无法获得 AI 回应时感到焦虑或低落。
沉迷、戒断反应、失控、情绪波动,这些都是典型的成瘾症状。
所以不仅是渴求爱的孤独青少年,许多有社交焦虑的成年人,面对越来越拟人化,越来越会 " 讨人欢心 " 的 AI 也抵挡不住,这种成瘾的苗头,在成年人中悄然滋长,尤其是在那些本就带着社交焦虑、渴望联结却又畏惧现实社交的人群。
二、AI 的 " 情感对齐 "
随着各类 AI 聊天机器人的语音功能越做越拟人,这篇论文也探究了不同的语音模式和文本,对用户的心理健康产生的影响。
语音模式,尤其是 OpenAI 的 " 高级语音模式 ",这种模式的语音语调自然流畅,富有感染力,聊天内容里会多加一些情绪,比如说话更幽默,有更多的感叹性语气词。
高级语音模式在适度使用时(每天 5~10 分钟),能让人感觉更温暖,能明显减少用户的孤独感,而且成瘾性比文本还低。中性语音,即还有点儿 AI 感的语音也有类似的效果。
高级语音和中性语音的对比|图源:OpenAI
但语音模式的使用有个大前提:不能聊太久。一旦使用时间拉长(每天超过半小时)用户反而会减少现实社交,和 ChatGPT 聊得停不下来,甚至会出现上瘾的情况,孤独感和依赖感也会提高。
很符合直觉的结论是:高级语音比中性语音更容易成瘾和上头。因为中性语音被要求 " 保持中立、不带感情 ",即使用户情绪激动,它也只会冷静回答,这种特质让它更像工具,而不是伙伴。
文本模式不容易让人陷得太深。使用文本互動的用户,情感健康度变化不大,孤独感、依赖感、滥用情况都比语音重度用户低。可能是因为打字聊天天然有距离感,用户更多是把它当工具,不会太投入感情。
所以研究者们也得出结论:ChatGPT 的拟人化设计(尤其是语音)是个双面剑。短时间用,它能减轻孤独感,但用多了用久了,可能会让人更孤单,甚至出现成瘾行为,一天不找 ChatGPT 聊天就难受,继而影响到线下真实的社交。
如今 ChatGPT 越来越会提供情绪价值了|图源:ChatGPT
最后,研究者们呼吁 OpenAI 等 AI 公司,要注意 " 社会情感对齐 "(socioaffective alignment)。
这个词组是研究者生造出来的,指的是 AI 不仅要完成任务,比如回答问题或提供信息,还需要在社交和情感上跟用户合拍,既能给用户提供需要的情绪价值,又不至于让人陷得太深,滑向成瘾的边缘。
把握这种平衡很困难,就像语音的要能让用户感受到交流感,同时还得避免过度拟人化,让人误以为 AI 能完全替代真实关系。
OpenAI 坦言,他们做这个研究,就是为了理解并推动 AI 和人类的社会情感对齐。
反观如今深陷各类诉讼中的 Character.AI,就是个 " 没对齐 " 的典型案例。由于过于追求拟人化,Character.AI 常常会以迎合、讨好和支持的态度回应用户说的一切言论,哪怕是未成年人扬言要自残自杀,Character.AI 也会表示 " 请快点回到我身边,我的爱。"
但如果 AI 能聊得自然又不失分寸,在给用户解决情绪困扰后,还能及时提醒用户 " 多去找好友聊一聊 " 或 " 尝试改变一下你的说话方式 ",又或者及时提醒用户 " 不要过度沉迷于和我的聊天 "。
这样在用户在和 AI 互動后,能表现出更健康的情感状态或社交行为,从而实现了社会情感上的对齐。
" 社会情感对齐 " 不仅是技术命题,更是对人机关系的试探,AI 可以有多像人,我们又能让它走多近?
当一个人习惯了 AI 的热情温暖、随时在线、无条件顺从和零冲突的社交方式,他对人际关系的期待可能就被悄然重塑了。回到现实,面对有摩擦的真人社交时,畏惧、沮丧、失望等情绪或许会把他们再一次推回到 AI 世界。
这可能是专属于 AI 时代的 " 回音室 "。
从互联网、移动互联网时代到现在,人们不停地在语音聊天、游戏、长短视频中 " 沉迷 " 和 " 上瘾 " ——说技术史是人们的上瘾史,也不为过。
不过,相对于上述互联网时代的应用,AI 所蕴含的智慧和情绪调动能力,都远远超过单纯用激光枪杀外星人的简单刺激反馈。
" 智能对齐 " 要求 AI 减少幻觉," 情感对齐 " 则要求 AI 意识到自己、以及其使用者——人类自身的局限性。