今天小编分享的教育经验:从“能力”到“适应力”:Sam Altman谈AI时代的核心竞争力,欢迎阅读。
作者 | AI 工作坊
来源 | AI 深度研究员 管理智慧 AI+
咨询合作 | 13699120588
文章仅代表作者本人观点
近日,OpenAI 的首席执行官兼联合创始人 Sam Altman 在一场深度对话中分享了他对这一问题的思考:" 我们会越来越重视人的 ' 适应力 ',而不是传统意义上的 ' 能力 '。有些技能依旧重要,但已经不是原始的智力强度了。" 这一洞察直击当下职场人普遍面临的困惑:在 AI 迅速迭代的环境中,我们应该培养什么样的能力?
当被问及未来重要的能力是什么时,Altman 给出了一个简洁而深刻的答案:"' 提出好问题 ' 会比 ' 给出答案 ' 更重要。" 在 AI 应用即将爆发的元年,这一判断尤为值得我们深思。当 DeepSeek、通义千问等国内大模型能力不断提升,会提问的人将比会解题的人更具价值,能识别模式、整合观点的人将获得更大优势。
在这个 AI 信息流充斥的时代,Altman 的思考为我们提供了一个独特视角,帮助我们在技术与人性的交汇处找到新的平衡点。如何在 AI 加速迭代的环境中提升适应力?如何培养提出好问题的能力?以下是这场对话的全文内容,或许能为你提供一些启示 ...
AI 与技能的变化
主持人: 某种程度上,AI 革命给我的感觉像是互联网革命的反面。过去,很多人不相信互联网能改变世界,结果公司倒闭了;而那些相信的人知道该做什么,比如建一个网站、通过网络卖产品。适应数字化并不难。而现在,我听到很多创始人和 CEO 都认同 AI 是颠覆性的,但却不知道它将如何影响领导力、工作方式、组织架构、产品和服务。在这种不确定中,它更像是一场工业革命,而不是互联网革命。
Sam Altman: 的确,现在存在大量 " 已知的未知数 ",但我们其实也能对它的未来发展做出一些判断。
主持人: 我很想听听你怎么判断。
Sam Altman: 我有几个总体假设。其一是:我们会越来越重视人的 " 适应力 ",而不是传统意义上的 " 能力 "。有些技能依旧重要,但已经不是原始的智力强度了。
主持人: 那你认为未来重要的能力是什么?
Sam Altman: 简单说," 提出好问题 " 会比 " 给出答案 " 更重要。这和我这几年观察到的变化很一致。以前大家重视你腦子里装了多少知识,是不是个 " 事实收集器 "。但现在更有价值的是能把各种信息 " 连起来 ",能识别模式、整合观点的人会更有优势。
主持人: 你看过《太空堡垒卡拉狄加》吗?他们总说:" 这一切曾发生过,也将再次发生。" 现在人们谈论 AI 革命,它确实在某些关键方面与过去不同,但也让我想起历史上的技术恐慌。
Sam Altman: 我小时候刚接触互联网时,觉得很酷,大家也都觉得它比之前的技术强太多。但也有人反感,比如老师禁止学生用 Google。理由是:如果你随时都能查到答案,还学什么历史?他们担心孩子们不再去图书馆查卡片目录找书,觉得这种便利是不公平的,甚至会让社会失去一些价值。但事实证明,我们并没有失去什么,反而获得了更强的工具,人的期望值提升了,能力也提升了。我们开始做更难、更有趣、更有影响力的事。我希望 AI 也能带来这样的结果。如果几年前你问一个人:"2024 年会不会出现像 o1 这样强大的系统?" 大多数人会说:" 不可能。" 但如果它真的出现,我们又该怎么应对?这其实是个生存风险的问题。现在这个惊人的突破真的发生了,我们也到了这一步。最近 Aiden Toner Rogers 有篇论文提到,AI 对研发领網域的影响是显著的。科学家在有 AI 协助时,专利申请量提升了 39%,带来 17% 的产品创新,很多还是突破性的,比如新化学结构的发现。受益最大的是顶尖科学家——他们的创造力几乎翻倍。底层三分之一的科学家则几乎没受益。AI 自动化了大量创意生成任务,让优秀的科学家能集中精力判断哪些点子值得投入——而这是他们真正擅长的。
AI 对工作的影响
主持人: 这听起来是个好消息,但也有代价。研究中,82% 的科学家表示对工作不太满意,觉得创造性工作变少了,技能没被充分发挥。仿佛人类被降级为 " 判断者 ",不再是 " 创造者 "。
Sam Altman: 我自己对这件事也有些矛盾。一方面,OpenAI 最让我欣慰的事之一,就是我们把这些推理模型交给一些顶尖的科学家、数学家和程式员后,听到他们说这如何改变了他们的工作方式。我个人最有成就感的工作,就是动腦解决一个从没人想过的问题。如果 AI 真把这部分接管了,我确实会有点失落。但我希望现实的发展是:我们会用新的方式参与问题解决,依然能从中获得乐趣。如果我们能用这些工具增强自己,我相信我们会适应,但我也不敢完全确定。
主持人: 在你的日常工作中,你是怎么用 ChatGPT 的?
Sam Altman: 老实说,我用得很普通。我不会拿它帮我想新科学点子,而是用来处理邮件、总结檔案,干一些繁琐的事情。我希望人类能继续参与创造的过程。这是人类精神最宝贵的部分。我相信它会延续下去,但形式肯定会演变,有些不同。
主持人: 我原本以为在人类优势中,同理心会保留得更久,但现在看来,AI 赶上的速度远超我的预期。
Sam Altman: 我最喜欢的实验之一是:如果让人进行一段文本对话,不告诉他们是在和人类还是 ChatGPT 交流,然后再问他们是否感受到被理解、被倾听、被共情,结果很多人反而觉得从 AI 那里获得了更多支持。只有当他们得知对话对象是 AI 后,满意度才会下降。
AI 与人类情感连接
主持人: 作为心理学家,我有几点想法。首先,我不觉得 AI 的共情表现特别好,更可能是我们人类默认状态下的同理心就很差。我们太容易陷入以自我为中心的对话,别人说了问题,我们就开始联想到自己的经历,而不是真正关注对方。所以这也许不是 AI 多厉害,而是人类的同理心基线太低。另外,我很好奇 " 只要知道是 AI 就不喜欢 " 的这种反应会持续多久。毕竟我们正在不断 " 拟人化 "AI。
Sam Altman: 你说得对,而且这类现象的确普遍存在。人们经常更喜欢 AI 生成的内容,比如艺术作品,但一旦被告知这是 AI 做的,立刻就不喜欢了。最近就有一项研究显示,即使是声称讨厌 AI 艺术的人,也会在不知情的情况下选出更多 AI 生成的作品为最爱。但一旦知道哪些是 AI 做的,喜好就发生改变了。不过我认为这也显示了一个积极信号:AI 在很多方面已经赶上人类,但我们天生还是更关心 " 人 "。这是一种很好的本能。
主持人: 虽然我们都在猜测未来,但我倾向于认为,即便未来我们更频繁地与 AI 对话,我们仍然会特别在意何时是在和 " 人类 " 交流。这种需求,深深植根于我们的生物本能、进化历程和社会机制之中。
Sam Altman: 那你为什么认为人类之间的连接仍然重要?有点像 Robert Nozick 的 " 经验机器 " 理论,也就是《黑客帝国》的原型:人们宁愿选择现实的、不完美的体验,也不愿沉浸在完美的模拟快乐中。我觉得我们真正渴望的,是人类之间真实的连接,即便这种连接不完美、有摩擦。当然,AI 迟早也能很好地模拟这些。但你会发现如果一直和一个完美无缺、始终共情的对象互动,反而会失去那种真实的人际张力。人类天生在意他人的感受、他人的评价,这种社交驱动不会那么容易转移给 AI。和 AI 交流可以有启发、有帮助,甚至像某种 " 高级娱乐 ",就像玩游戏一样。但它可能无法真正满足我们作为社会一员的深层需求。我认为,那种想成为 " 群体一部分 " 的渴望才是人类特别重要的特质。
主持人: 我希望你是对的。要是 AI 真能精准破解人类心理,取代所有人际互动,那我会感到很难过。
Sam Altman: 我也是。我们无法从 AI 那里获得归属感,也很难从 AI 身上获得 " 被看见 "、" 被尊重 " 或 " 我很重要 " 的感觉。这些都是我们通过他人眼睛和反应来建立的。这正是我想表达的。我可以想象这样一个未来:AI 的能力远超我们,能做各种惊人的事情。但即便如此,人类仍然会在意彼此的看法,依然玩着那些关于地位、比较、认同的 " 愚蠢游戏 "。只是,我不认为人们会把自己和 AI 的能力做比较。
认知和信息的影响
主持人: 我一直很好奇:在这个信息高度分裂的时代,事实越来越难打动人。比如,很多相信阴谋论的人,并不是因为逻辑推理,而是因为那种信仰能让他们感到特别、有存在感,好像拥有了别人不知道的真相。这种心态很难被说服改变,因为承认错误意味着自我价值受损。但最近有篇我很感兴趣的研究,是 Castello、Pennycook 和 Rand 合作做的。他们发现:哪怕只与 AI 聊一次天,在几个月后,依然有不少人放弃了原本坚持的阴谋论信念。AI 首先针对用户的错误认知做了反驳,关键是它回应了用户背后的心理动因,而且——人们在 " 机器面前 " 更容易接受自己被说服,不怕 " 看起来像个傻子 "。结果是,大约 20% 的人放弃了荒谬观点,而且连 AI 没涉及的其他错误认知也一并改变了。
Sam Altman: 我觉得这是一个特别令人兴奋的机会。当然,它既可能被用作善,也可能被滥用。但我很好奇你怎么看这种新可能性——我们能否借助 AI 来修正人类的认知误区?有些人天生就能扩展我们的思维,与他们交谈是种难得的特权。但这样的人太少了。如果我们能造出一个 AI,像世界上最棒的晚宴嘉宾,既有趣、又博学、又真诚关心你,还能花时间了解你,带你从新角度看世界——那就太棒了。我自己也有过类似体验。有时候我与某领網域真正的专家交谈,他们的话改变了我看待世界的方式。当然,人类中有些人能做到这一点。但我也有几次,和 AI 对话后产生了类似的感受。
主持人: 这也引出了 " 幻觉 " 和 " 准确性 " 的问题。作为外行,我很难理解这为什么是个这么难解决的问题。你能用非计算机专业的人也能听懂的方式解释一下吗?
Sam Altman: 我觉得很多人还停留在 GPT-3 的印象中,那是 2021 年的 " 远古时代 ",当时的模型确实不够好,幻觉也很多。但如果你现在用 ChatGPT,它虽然仍会出错,但整体已经相当可靠了。我们训练这些模型的方法,是让它预测下一个词,而训练数据中难免存在错误。有时候,模型没有正确地 " 泛化 "。我们正在研究如何让模型在不知道答案时,能够坦率承认 " 不知道 ",而不是胡乱猜测。这个问题还没完全解决,但随着新一代推理模型的进展,幻觉问题正在大幅改善。
主持人: 我在使用 ChatGPT 时经常反复追问,比如 " 这是真的吗?"、" 你确定这是准确答案吗?" 我觉得这种质疑应该成为与 AI 互動的一个默认步骤。
Sam Altman: 没错,我认为未来这确实会成为使用流程的一部分。而且还有其他手段会共同推动 AI 更可靠。
人类与 AI 的协作
主持人: 最近有项研究让我震惊。以往我们以为医生加 AI 会比单独使用 AI 更好。但结果却显示,AI 不仅单独表现更好,甚至胜过医生与 AI 组合。我理解这个结果的方式是:医生在不认同 AI 建议时倾向否决它,反而削弱了决策效果。
Sam Altman: 这种现象在历史上反复出现过,比如下棋。最开始人类更强,后来 AI 更强,然后人类和 AI 协作达到了最优。但再之后,AI 又超过了这个组合。因为人类会犯错,会错判一些关键局面,导致协作反而拖了后腿。如果你的角色是 " 不断质疑 AI",那效果可能会很差。但我认为,我们目前还处在探索 " 人类与 AI 如何协同 " 的早期阶段。AI 在诊断方面确实已经优于人类医生,这不是我们能轻易反驳的。但在很多其他方面,或者在患者希望由人来完成的事上,人类仍有不可替代的价值。这会变得很重要。
主持人: 我经常想这个问题。我马上要有孩子了,而这个孩子将成长在一个 "AI 无处不在 " 的世界。他们从一出生就知道 AI 比自己聪明,能做很多他们做不到的事。可问题是,会有人在意这个吗?
Sam Altman: 我觉得真正怪异的是我们正处在这个 " 过渡期 "。这既是一种让人谦卑的力量,也是未来的一种趋势。我们还在学习如何与这些工具协作。是的,可能有些人太快开始依赖 AI ——比如我现在已经不会拼复杂单词了,因为我信任自动更正。对我来说,这没什么问题。我认为,人们对这些变化的 " 道德恐慌 " 有时是过度的。哪怕人们更多依赖 AI 来表达想法,也许那就是未来的表达方式。
主持人: 我看到一些学生已经不愿意在没有 ChatGPT 的情况下写论文了。面对空白页面或闪烁的游標,真的让人很难下笔。我担心这种依赖正在加深。你觉得我们该阻止这种趋势吗?还是说,我们应该接受它、适应它?
Sam Altman: 我不确定这是不是必须 " 阻止 " 的事情。对我来说,写作其实是 " 外包的思考 "。写作很重要,但只要人们用新的方式表达思想,甚至是通过 AI 来表达,我觉得并没有什么问题。我觉得现在很荒谬的一个流程是:一个人写下自己想说的要点,让 ChatGPT 把它润色成一封漂亮的邮件发出去;然后收件人把这封邮件贴进 ChatGPT,问它 " 提炼三个关键点 "。这几乎成了笑话。
主持人: 所以我现在越来越觉得,写作和沟通的一些 " 传统形式 " 其实并不重要了。如果我们都能直接互相发送 " 要点 " 就好了。我真希望 ChatGPT 有个 " 水印 " 或内部记忆功能,能提醒用户:" 嘿,这段内容是我写的,你该回去跟那个人说,直接发要点就行。" 这样大家沟通起来会更高效。
Sam Altman: 成名后有件很烦人的事是,我说的每一句话都得斟酌。说得不够完美就可能被攻击,或者引发各种争议。这样反而让我失去了在公众面前自由即兴表达和试错的机会。虽然这些想法可能不够成熟,甚至大部分是错的,但里面可能也有一些 " 闪光点 "。而我追求的,就是这种探索的过程。
AI 发展的速度
主持人: 尽管如此,我们还是很感谢你比很多同行更加谨慎——他们往往缺乏自省,更缺乏克制。
Sam Altman: 是的,有时候做一个谨慎、深思熟虑的人并不容易,但我确实认为应该有更多人这样。
主持人: 我觉得我们低估了人类适应工具的创造力。我看到一个很有意思的研究,是 Sharon Parker 和她团队做的。他们研究一家制造企业在引入机器人后,员工并没有慌张、担心失业,反而开始主动思考自己的独特价值。他们研究机器人擅长与不擅长的任务,然后说:" 好,我们就专注在人类更擅长的事上,把这变成我们的核心竞争力。"
Sam Altman: 我觉得 o1 和推理模型的快速进步也让人不寒而栗。我们去年还认为某些技能可以用来区分人类和 AI,但到了今年,那些能力已经落伍了。2023 年流行的提示技巧,如今有些已经完全没用了,甚至再也用不上。
主持人: 关于人类在 50 年、100 年,甚至 1000 年后的样子,我们无从得知。但一个更有趣的问题是:今天的人类有什么用?我想,答案是——对他人有用。我认为这一点将一直延续下去。
Sam Altman: Paul Buchheit 多年前跟我说过一句让我印象很深的话。他当时还在思考,如果未来出现 " 人类货币 " 和 " 机器货币 ",它们可能会是完全独立、互不关联的体系。我不认为这字面上会发生,但这个类比非常有洞察力。我从没想过机器会有自己的货币,但假设有一天 AI 为我们治愈了疾病、实现了核聚变、创造了各种我们难以想象的突破,那时我们还会在意某个叫 Nii 的 AI 做了什么,或者某个朋友或小公司在做什么吗?可能不会那么在意吧。也许有些人会,也许未来甚至会出现围绕某个 AI 的 " 教派 "。但我猜,我们最终还是会惊讶于自己有多么 " 以人为本 "。
原文链接:https://www.youtube.com/watch?v=c0NqpG--Pzw&t=369s
来源:官方媒体 / 网络新闻