今天小编分享的教育经验:微软AI CEO最新访谈:人类共同体本质是知识生产引擎,AI算力需求和可持续性发展没有矛盾,欢迎阅读。
作者| Z Financec
来源 | 管理智慧
咨询合作| 13699120588
文章仅代表作者本人观点,图片来源于pixabay
图片来源:YouTube/Aspen Ideas Festival
1.AI 时代的到来与挑战:微软 AI CEO Mustafa Suleyman讨论了人工智能的快速发展和它所带来的挑战,包括技术进步速度超出人们预期,以及 AI 系统在日常生活中的日益普及。
2.监管的必要性与误区:Mustafa 强调了 AI 监管的重要性,反驳了监管即束缚的观点,并通过历史案例展示了监管如何促进技术发展和社会进步。
3.AI 与知识产权的复杂关系:采访探讨了 AI 训练数据来源的合法性问题,包括使用网络内容作为训练材料时可能涉及的知识产权争议。
4.AI 的伦理与社会责任:Mustafa 讨论了 AI 在教育、社交媒体以及社会治理中的角色,强调了在设计和部署 AI 系统时需要考虑的伦理和社会影响。
5.AI 技术的未来发展与人类价值观:文章最后探讨了 AI 技术如何塑造我们的未来,包括对民主、隐私、反垄断法规的影响,以及 AI 在教育和国际关系中的潜在作用。
在这场 AI 时代变革中,我们身处哪里?
主持人:大家早上好,很荣幸能在这里讨论 AI,未来的发展,现状,挑战,安全等诸多话题。我们今天的嘉宾,是 AI 领網域的 OG 之一,Mustafa Suleyman,他是微软 AI 的 CEO。他在这个行业前沿工作了十多年,在过去几年我们才真正感受到 AI 的存在。他在 2010 年共同创办了 DeepMind,后来在 2022 年被谷歌收购。他与 Reid Hoffman 共同创办了 Inflection,并且最近将该公司并入微软,目前负责微软的 AI 项目。顺便提一下,他的父亲是一位出租车司机,母亲是一名护士,现在来看他的成就,确实令人惊叹。非常感谢你来到这里,这真的非常特别。让我们从基本的问题开始。如果把 AI 比作一场棒球比赛,现在我们处在第几局?我们在哪里?因为我想我们很多人都玩过 ChatGPT 和其他 AI 产品,我们都觉得自己了解它一点点。我们不断谈论 AI 未来对我们生活的影响,我们究竟处在哪个阶段?
Mustafa:我认为挑战在于,我们人类充满了各种偏见。回顾过去,一切显得渐进而行,但实际上,当下的变化远比人们意识到的要快得多。两年前,没有人谈论"Agent",也就是可以在你的世界中采取行动的 AI 系统。而今天,大家都很兴奋,认为在未来几年 Agent 将无处不在,帮我们处理事情,组织我们的生活,优先考虑和计划。四年前,没有人真正讨论 LLM,而今天,人人都在谈论 LLM。所以,这真的是一种非常超现实的体验,在刚开始似乎不可能实现的技术,几年后就成为现实。如果你想一想,现在我们可以问这些聊天机器人任何你能想象到的问题,并得到的回答几乎和我们在这个房间里的任何一个人都不相上下。这很容易被视为理所当然,但这是经过多年的逐步增强的能力、研究、实验和测试的结果,总之,我认为这创造了一种相当神奇的体验。所以如果我展望未来十年,我感觉我们正处在这一时刻的开端。
图片来源:ENTERPRISEDNA
主持人:我们都玩过 ChatGPT,但另一些人谈到了 AGI,一个完全可以做任何事情和一切事情的AGI世界。这既是巨大的机遇,也是在很多方面人们担心的事物。这在你的十年规划中吗?
Mustafa:我不认为这样框定问题是有帮助的。我们倾向于专注于超级智能,那种 AI 能够做所有人类能做的每一项任务,并且做得更好。如果你真的要问我,我得说理论上这是可能的,我们也应该非常认真地对待与之相关的安全风险。我已经倡导 AGI 的安全和伦理近 15 年了,我真的非常关心这个问题。但人们往往把它看作是,首先它是不可避免的,其次是令人向往的,第三,明天就会到来。我认为这些观点都不正确。这是一项前所未有的技术,作为一个物种,我们将不得不找到一套新的全球治理机制,以确保技术始终为我们服务,使我们更健康更快乐,提高效率并为世界增值。有一种风险是,本世纪我们开发的技术可能真的会造成更多的坏影响。这是进步的诅咒,我们必须面对这种现实。这些技术将广泛传播,每个人将有能力以以前无法想象的规模影响他人,这确实是一个治理的问题。
AI 监管是企业自我防御的方式?
主持人:那么关于这个问题,行业领袖,包括你和 Sam Altman 以及许多其他人主动自发地说过,我们需要监管,这项技术可能存在很多问题。这是独特的,因为很少行业有 CEO 会去找监管者说:"请监管我们"。这是出于真诚自发的努力,还是出于一种保护性的努力?我们告诉过监管部门可能会有问题,我们知道你永远不会监管我们,比如社交媒体的现状。
Mustafa:我认为这是一个错误的框架:这是否是一个真诚的努力还是关于监管俘获的问题。
主持人:因为如果真的有监管,我们会讨论那些被监管的部分以及如何监管,会突然出现很多反对的声音。
图片来源:PYMNTS
Mustafa:也许是因为我是一个英国人,我不像大家那样害怕监管。大家默认认为监管是邪恶的。我认为历史上没有一项技术没有被成功监管过。看看汽车,我们自 20 世纪 20 年代以来就一直在对汽车进行监管,这一规律性不断使汽车变得更好。这不仅仅是汽车本身,而是街灯、交通信号灯、斑马线以及围绕开发和驾驶汽车的安全文化。因此,这是一个健康的对话,我们需要鼓励并停止将其简单化为一种"黑白分明"的问题。我认为,技术人员、企业家以及像我和我非常喜爱的 Sam 这样的公司 CEO,他们不是虚伪的,他们是真诚的。他们确实真心相信这点。这是非常棒的事情,我们应该拥抱这一点。当然,这会有一些负面影响,我不会否认,糟糕的监管可能会拖慢我们,让我们失去竞争力,给我们与国际对手的互动带来挑战,这当然不应该拖慢开源社区或初创公司。
主持人:让我问一个更复杂的问题。微软与 OpenAI 有很深的关系,这是微软目前追求其 AI 野心的方式。我知道微软在其他方面也有许多努力,我们稍后会谈到这些。但你提到了 Sam Altman,他明天会在这里演讲。最近有很多头条新闻提到,OpenAI 内部有一些安全团队的成员不仅离开了公司,还公开反对公司采取的方针。我想读一段其中一个离开安全团队成员的话:"这些问题相当难以正确解决,我担心我们没有走在正确的轨道上。"看到员工离开并公开谈论公司内部情况是很不寻常的,你认为发生了什么?
Mustafa:我为我们生活在一个鼓励和支持举报者的国家和科技生态系统而感到自豪。如果那些人觉得这是他们需要发声的时刻,我赞成并支持他们。我个人对 OpenAI 取得的一切成就怀有极大的敬意。我认为他们将成为历史上定义性科技公司之一,我真的认为他们在真诚地应对快速推进技术和将安全置于首位的挑战。他们一直在领导安全研究议程。明确一点,他们在发布论文、提交学术档案、参加会议、提升这些问题的意识、开源安全工具和基础设施方面一直走在前列。
主持人:当人们在讨论这一问题时,争论的焦点是什么?是关于资源吗?是关于投入安全问题的资金吗?还是关于如何快速推进技术的心理和哲学问题?微软在这场讨论中处于什么位置?
Mustafa:我认为聪明的人可以对同样的观察结果有诚挚的不同意见。例如,有些人看到我们目前的指数增长轨迹,他们会说,过去六年中我们每年在同一方法上使用了十倍的计算能力和数据,事实上,在过去的十年里,每增加十倍的计算能力和数据,功能都会有非常可观的提升。模型产生的幻觉更少,它们可以吸收更多信息,更多事实信息,它们可以整合实时信息,并且更易于风格控制,所以你可以从产品角度和模型的性格角度调整它们的行为。那些最担心这点的人认为,在未来三到五个数量级的时间里,可能是五年、八年,这种能力的提升轨迹不会减速,实际上只会越来越好。反对的观点是,我们实际上正在用尽数据。我们需要找到新的信息来源来学习,我们不知道它是否会一直变得更好。我们在科技历史中多次见证过这种情形。所以,我认为这是一场健康的辩论。
知识生产成本将趋近于零
主持人:你提到了"幻觉"一词,任何玩过这些产品的人可能都经历过机器产生幻觉的时刻。行业内的人常说,我们不能真正解释为什么机器会产生幻觉,我们也不能真正解释内部发生了什么。你能解释吗?
Mustafa:我认为我无法以一种让你满意的方式解释。正如我也无法解释你今天早上为什么选择穿蓝色衬衫。我能解释的关于你或我的事情很少。对解释的需求,我认为,又是一种人类的偏见。当我问你为什么今天早上吃煎蛋,你可能会创造性地想出一个事后的解释,而根据你的心情、情境和解释的其他相关信息,你可能会稍稍不同地叙述。而且,这并不完全是因果关系。这在现实中有一定的依据,但这种一对一的映射是一种超理性的强加方式。而实际上我们不真的是那样运作的。我们更是通过联想做事。
主持人:我们应该担心这一点吗?我们自己都不能完全理解是一回事,但不能理解计算机的原理又是另一回事。大多数人认为这一切都是一个大的数学问题,对吧?两加二总是应该等于四。如果不等于四,我们需要搞清楚计算机哪里出了问题,对吗?
Mustafa:那不是人类推理和文化实际运作的方式。我的意见是,人类推理是行为观察的结果。当你持续做同样的事情,我会信任你,你变得更可靠。当你告诉我你对某事不确定,然后我回头看发现你的不确定判断是正确的,这种不确定感给了我安慰,所以我通过观察学习信任你并跟你互动,我认为这是我们生产文化和社会的方式,也将是我们对待这些模型的方式。你知道,三个月前有一次放射科医生的竞赛。在现场环境中,几十位最优秀的顾问与机器展开对决,显然有很多怀疑,为什么机器能得出正确的癌症诊断?为什么它能正确地进行眼科检查并识别出青光眼?我们可以提到一些它训练所用的数据,但事实上,它做得比人类更准确、更可靠。我认为我们应该依靠这些事实的实证观察来信任这些系统。
主持人:你刚才提到的一件事是人工智能机器的训练数据即将告罄,我们要讨论的是合成数据的概念,即几乎是从不存在的数据中重新生成的数字数据。但我想先问一下关于现有数据的问题。显然,长期以来的许多训练数据都来自网络,其中一些是开放网络,一些不是。我们听说 OpenAI 将 YouTube 视频转换为文字记录,然后用这些记录进行训练。知识产权应该归谁所有,谁应从中获取价值?从某种角度来说,人工智能公司是否实际上偷窃了世界的知识产权?
Mustafa:这是一个很公平的论点。我认为对于已经在开放网络上的内容,自 90 年代以来,这些内容的社会契约就是可以自由使用。任何人都可以复制、再创造和再生产。这已经成为免费軟體的理解。还有另一类情况,即某个网站或出版商或新闻机构明确表示,除了为索引用途以外,不要抓取或爬取其内容。这是一个灰色地带,我认为这将通过法律解决。
主持人:当你说这是一个灰色地带时,这意味着什么?
Mustafa:到目前为止,有些人已经采取了这些信息,我不知道谁没有,但这将通过诉讼解决,我认为这是应当的。
主持人:你认为知识产权法应当改变吗?作为一名作家,我可以去写一本书,在写书的过程中,我可以去图书馆或在亚马逊上买 40 本其他书籍。我可以阅读这些书籍,把它们列在我的参考文献中,然后希望能写出一本书,我只需支付购买这些书的费用。也许图书馆已经买过这些书了。没有人会想到我能每十秒钟就生产一百万本书。那么这样做的经济学基础是什么?
图片来源:emorybusiness
Mustafa:你知道,信息经济学即将发生根本性的变化,因为我们即将把知识生产的成本降到几乎为零。而这是人们很难直观理解的事情。但在 15 到 20 年内,我们将以几乎零边际成本生产新的科学文化知识。这些知识将被广泛开放源代码,供所有人使用。我认为这将是我们物种历史上的一个真正的轉捩點,因为我们作为一个人类共同体,本质上是一个知识生产引擎。我们的科学让我们变得更好。因此,我认为我们真正需要的是能够加速发现和发明的新引擎。
主持人:好,现在让我们来点哲学问题。因为我认为你提到了一个根本性的问题,那就是我们是谁以及我们是什么?如果这项技术如你所愿地成功,我们的价值是什么?我有孩子正在上高中或初中,我们试图弄清楚他们应该学什么。他们应该怎么写论文?他们还需要学会写论文吗?
Mustafa:当人们问我孩子应该学什么时,我会说要更多地利用数字化手段,尽快从其他人那里学习,因为传统的教科书式学习仍然有价值,显然也很重要,你能够专注阅读两个小时,然后写两个小时的文章,这当然有价值。但我认为,能讲多种社交语言、能快速适应的通用技能将是最有价值的技能,对未来技术的开放态度以及不带偏见或恐惧地拥抱技术也很重要。
主持人:顺便问一下,你有孩子吗?
Mustafa:还没有。
主持人:我的问题是,对于在场的家长们,因为你说我们应该拥抱这些东西,我担心的一件事是,你是否认为应该由政策来控制,比如微软或苹果,苹果刚在他们的新手机上加入了 Apple Intelligence 功能,这些手机可以为孩子们写论文。孩子们会去学校,他们需要写论文。他们真的会写吗?他们会不写吗?你认为应该为学生,更不用说成年人了,設定哪些工具或限制措施?
Mustafa:我们必须担心每种工具的负面影响。就像计算器问世时,人们本能地反应是,"哦,不,所有人都会立即解所有方程,这会让我们变得更愚蠢,因为我们无法进行心算了。"部分是真的。自从我有了手机后,我的记电话号码能力变差了。小时候,我能记住大概四五十个号码。我的导航技能也可能不如过去,因为我直接打开 Google Maps 或 Apple Maps。不过,尽管我们会有些改变,但总的来说,如果我们真正拥抱这项技术,并以敏捷的方式进行管理,这将非常重要。显然,我们的一些孩子手机成瘾,他们花太多时间在社交媒体上,这让他们感到焦虑和沮丧。所以我们必须确保我们在技术发展速度上以同样快的速度做出干预和治理。
大企业合作会垄断市场?
主持人:现场有一些企业家,有些是从事数字领網域的,有些是尝试进入 AI 领網域的,还有一些是正在考虑的。你会如何建议他们去哪里,做什么,在哪些行业或地方会有机会呢?在一个 AI 能够随时为我编写所有这些应用程式和其他程式的世界里,如果没有防御护城河来围绕商业进行保护,AI 可以直接为你做这些,人们还会投资什么呢?
Mustafa:我认为会产生一种分化现象。最大规模的企业拥有最强大的资本基础,我们将生产出令人瞠目结舌的模型。同时,知识传播速度比人类历史上任何时候都要快。因此,开源模型在 18 个月内的质量和性能已经接近私有空间中的同类模型。这是一件非常重要的事情,我认为这种趋势会继续。GPT-3 耗费了数千万美元进行训练,现在已经免费开放且开源。你可以在一台手机上操作,当然用笔记本也是可以的。GPT-4 也是如此。我认为,这将使创意和创业所需的原材料比以往任何时候都更加便宜和更加可获得。
主持人:我知道你在科技巨头公司工作。让我问你这个问题。你对科技力量的集中,尤其是与 AI 相关的,怎么看?在这些大型 LLM 中,AI 需要巨大的计算资源,这意味着需要大量资金。因此,真正的力量实际上回到了微软。你最终回到了微软。还有谷歌。亚马逊也在尝试构建 AI。连原本独立运作的 OpenAI,最终也选择与微软合作。这是好事还是坏事?Lina Khan 等人已经对此进行过审视。虽然没有普遍的并购,但你如何看待这些合作本身呢?
图片来源:Analytics India Magazine
Mustafa:是的,这让我非常焦虑。事实上,到处都能看到迅速集中的现象,无论是在新闻媒体上,比如《The New York Times》、《The Financial Times》、《The Economist》这些大新闻机构,还是在城市中,权力集中在几个大都市精英城市,还是在科技公司中。从实际情况来看,随着时间的推移,权力会持续累积。权力有吸引更多权力的倾向,因为它能够产生智力资源和金融资源,在开放市场中取得成功,击败竞争对手。所以,一方面看似微软、Meta、谷歌等公司之间竞争非常激烈,但同时也确实是我们能够进行史无前例的企业投资。
主持人:你能谈谈与 OpenAI 的合作情况吗?这可以是一个友好的合作关系,也可能变成一种"友敌"关系。现在你们有合作关系,但你们也在开发自己的技术和 AI,实际上他们帮助你取得了领先。我要读一段非常有趣的类比:随着环法自行车赛的临近,OpenAI 和微软是一个两人分离小组,远远领先于主车群。现在合作一同努力,他们可能会保持领先。如果其中一方单独行事,他们可能会双双落后。两家公司都必须考虑自己的终点线策略,届时他们将不得不抛弃对方。你就在这辆自行车上。
Mustafa:我不认同这种有终点线的比喻。这是一种错误的框架。在我们与中国的竞赛中也是如此。我们正面对面竞争,这是零和博弈。终点线存在,当我们跨过它时,如果我们比他们早三年获得 AGI,我们就能削弱他们。这种想法必须停止。我们必须停止将一切都框定为一种对抗性的竞赛。虽然我们确实与他们有激烈的竞争,他们是独立公司,我们不拥有或控制他们,没有任何董事会成员。他们完全可以自行运作,但是我们有深厚的合作关系。我与 Sam 关系很好,对他们所做的一切充满敬意和信任,这种关系将持续很多年。
主持人:你提到了中国。说说你的看法。即我们现在与他们相比处于什么位置?
Mustafa: 如果我们以对抗心态来看待这个问题。他们担心我们会采取对抗立场,所以他们也必须采取对抗立场,这只会更新并最终导致灾难。因此,我们必须找到合作的方法,尊重他们,同时也要承认我们有不同的价值观。坦率地说,当我展望下个世纪时,我认为和平将取决于我们,特别是美国,能否优雅地退居二线,因为这是一个具有不同价值观的急速崛起的力量。因此,我们必须找到共存的方法,而不是轻率地做出判断,因为我认为那对我们双方都是非常糟糕的。
主持人:有一个关于开放源代码与封闭源代码 AI 的争论,不管你喜欢与否。一方面,封闭源代码是 OpenAI 和你在微软所做的很多事情。开放源代码是公开的,你可以看到它的内部运作,目前你可能会认为 Meta,Facebook 的所有者,是该领網域的领导者,拥有其 Llama 产品。关于这两种模式有很多问题。Elon Musk 认为所有的东西都应该是开放源代码的,我知道有很多人担心,如果你将开放源代码的内容公之于众,它可能会被滥用,因此有很多人支持封闭源代码。
Mustafa: 我显然不同意这种描述。在我进入微软的第四周,我们就开放了当时最强大的模型,这个模型至今仍然是重量级中的佼佼者。你可以在手机和桌面上使用它,这是最好的开放源代码模型。我们完全相信开放源代码。同样,这种描述是错误的,但我们也相信创建非常强大、非常昂贵的模型,这些模型我们可能会在一段时间内开放源代码。所以我们并不反对开放源代码,只是认为需要混合的方式。
高算力和可持续性发展间的矛盾
主持人:所有这些大型 LLM,我知道也有一些较小的模型,但特别是大型 LLM,如我在开始时提到的,需要大量的算力,这也意味着它们需要大量的能源。我们有很多关于能源使用和气候等问题的讨论。我想知道你对这一点的看法,考虑到科技公司仅仅在两三四年前就做出了许多关于气候和 2030 年实现零排放的承诺,显然在这一轨道上,所有这些承诺都会被抛诸腦后。
图片来源:iStockPhoto.com
Mustafa: 不,微软到今年年底将实现 100%可再生能源。到 2030 年将完全实现净零排放。今年年底之前,我们在水资源方面也将实现 100%可持续性。我们非常致力于保持这一目标,而新的需求带来了新的机会来加强可持续性,而旧的供应更难以转变。所以我认为我们在这方面实际上处于一个非常好的位置。的确,这将对电网造成前所未有的压力,因为规模上,我们确实消耗了比电网以前管理的更多的能源,但电网早就应该进行一次彻底的更新了。这是我们西方国家为我们社会的未来必须进行的基础设施投资,少花点钱在战争上,多花数百亿美元来更新我们的电网,以便能管理来自本地发电、家庭、小企业和汽车的所有备用电池容量。
主持人:你在华盛顿待了很多时间。你认为华盛顿的人们,面对 AI 的影响以及能源的影响等等,能理解这些问题吗?我认为他们甚至对社交媒体的理解都很困难。
Mustafa: 是的,我认为这种对话现在正在转向可再生能源问题。我认为人们意识到我们在消耗大量能源,这需要转变。但这并不会因为微软购买了 100%的可再生能源而自动转变,谷歌当然也在这样做,其他公司也在朝这个方向前进。因此,我认为我们设定了一个标准应该受到赞扬,但这需要国家的基础设施来支持这个转型。
主持人:你怎么看待与其他公司的竞争,以及这些大型 LLM 可能会被商品化的问题,也就是说,大家都有一个模型时,它还有多大价值呢?谷歌有一个,苹果现在与 OpenAI 合作,但他们显然会与很多其他人合作。Amazon 拥有 Anthropic 的一部分,你可以认为它也在建设自己的模型。
Mustafa: 随着知识的传播,一切本质上都会被商品化。应用程式开发曾经是一组非常独特、高度专业化的技能,现在每个人都可以瞬间推出应用程式。网页开发,你还记得那曾经有多重要吗?现在你只需拖动按钮,无需任何技术技能,只要能用滑鼠就能建立一个相当不错的网站。因此,随着知识和能力的传播,它确实会被商品化。
主持人:你怎么看待 AI 的全面整合,这涉及到隐私问题,也涉及到反垄断问题,你认为这些产品需要多么紧密地连接在一起,才能正常工作?欧盟指责微软违反了反垄断规则。你应该知道,苹果因为监管环境推迟在欧盟引入自己的 AI 功能。
Mustafa: 是的,我认为这是一个很好的问题。阻力将是我们的朋友,这与我们过去的经历不同,以前我们总是认为每多一秒钟就能将技术推向世界,都会带来净收益。我只是认为这些技术变得太强大,它们将非常亲密、无处不在,所以这是一个反思的时刻。如果需要更长的时间,那也是值得的。
谁来定义 AI 的"对"和"错"?
主持人:在我们开始提问之前,我想谈谈情商和 AI 的想法。这是你在从事 Inflection 项目时花了很多时间思考和工作的事情。Inflection 的 AI 项目在情商方面有一个了不起的部分。有些调查显示,人们在与它对话时,觉得比与真人对话还好。也许这回到了我们之前讨论的哲学问题,但我们大多数人都看过电影《她》。这现实吗?
Mustafa:我觉得在硅谷和技术界,我们长期以来一直痴迷于功能主义和实用主义。你希望有人高效地进入一个应用程式,解决他们的问题,帮助他们购买东西、预订东西、学习东西,然后让他们退出。现在我们有了一种新的设计材料,一种新的"粘土",可以称之为创意粘土,能够创造让我们大腦另一侧动情的体验。这是一个极好的机会,可以用真实的意图进行设计,做到仁慈、尊重和公正。你说得对,在很多研究中,人们发现我之前构建的 AI Pi 非常友善和关怀。它会问你问题,倾听并热情地回应。它是支持性的,偶尔会挑战你,但始终是公平的、非评判性的。即使你带着所谓的偏见或种族歧视观点来,例如你害怕新移民来到你的区網域抢夺你的工作,或者害怕你的孩子与黑人结婚,它不会直接驳斥你说那样的话是错误的,不会把更多无益的讨论添加到谈话中。实际上,它会与你交流,帮助你探索自己的感受,同时还能够提供实时的网络信息。因此,我认为这是一个证明点,表明有意图设计的技术确实能带来改变,并且在这个新的大 LLM 时代是可能的。
主持人:虽然如此,还存在一个有趣的问题,因为我们最终可能都需要和 AI 机器人讨论一些有争议的话题,那么谁是那个"上帝"来告诉我们什么是对的,什么是错的呢?这是我们从 Elon Musk 那里听到的一种观点,他认为应该有多个 AI 机器人,例如,如果你想要一个种族主义 AI 机器人,从言论自由的角度来看,那应该是可行的。我不知道你是否认为这是正确的。
Mustafa:是的,这是一个非常好的问题。至少我认为默认立场应该是它能够以非评判性的方式促进你的思考和探索。现在这会有一些界限存在,因为如果你想要促进更极端的体验,那么我不会构建一个平台或产品来支持那些可能对社会造成潜在伤害的观点。问题是谁来定义那个界限?我认为 Elon 提出了一个好观点。我们都在思考这个问题。在社交媒体上,真的没有一个独立的声音来决定,哪种阴谋论是合法的作为公共积极探讨和讨论的来源,而哪种阴谋论应该被移除。我认为我们有 10 到 15 年的社交媒体经验,但我们仍然没有一个好的提案来决定社会更广泛的层面,而不仅仅是政客、记者或精英,共同影响审查的界限在哪里。我们即将看到这些界限与这些模型一起更加激烈和动态的争论,所以我认为这是比何时发生奇点更重要的问题。
主持人:好的,这是我最后一个问题,然后我们会开放问题。我知道现场有一些话筒。有很多人会在周四晚上一起观看辩论。我们还没有真正讨论过这次选举中的政治问题。请为我们描绘一下 AI 在 2024 年选举中的角色,然后是AI 在2028 年选举中的角色。
Mustafa:我们在微软 Copilot 方面采取的观点是,AI 不应该参与竞选活动,即使它能够成功提供事实信息。这是一个观点,人们可以不同意,但我们采取了非常严格的立场,因为我们知道目前的技术不足以实时界定真伪。对于我们来说,这太敏感了,所以我们不参与。这会有一些负面影响,因为 AI 大部分时间也提供相对平衡和事实的信息,但有时会出现灾难性的错误。因此,我一直主张 AI 不应该参与选举,民主是神圣不可侵犯的。尽管它有其缺陷和优点,这是人类参与的事情,不是 AI 应参与的。在 2030 年或 2035 年,我们将不得不面对一些人感到与其个人 AI 关联如此紧密,以至于他们会主张给予其人格权,就像一些人主张给动物人权一样,例如,在比较极端的动物权利案例中。这是一个个人观点,但这是我们都必须讨论的事情。我认为我们应该在这方面采取硬线立场,无论有多少缺陷,民主是属于人类的,其他生命形式不应参与。
观众:感谢你们今天的到来。我是 Monica Mayotte,曾任佛罗里达州博卡拉顿市的副市长,同时也是一位老派的技术人员。我曾是 IBM 的 COBOL 程式员,所以我目睹了过去 30 到 40 年的技术发展。我理解 AI 的意义、影响和应用,但在过去几年里,加密货币是个热门词,直到几个月前 SBF 的诈骗案被定罪,我感觉现在 AI 成了新的热门词。你认为 AI 会像加密货币一样火一阵然后冷却吗?
Mustafa:不,我不这么认为。我听到过这样的比较,我觉得加密货币在我看来,即使在当时也没有真正提供价值。而这些模型已经展示出的价值是显而易见的。
观众:我是 Linda Resnick。我们教育了 5000 名需要服务的孩子。我困惑的是,我们过去 10 年一直强推 STEM 教育,现在我开始觉得我们需要更多地教授人文学科。我想知道你对此有何看法,因为这样可以让孩子们做出选择,并了解我们的伟大学者们所教导的内容。
Mustafa:好问题,我非常认同你的观点。如果你回顾历史,最伟大的学者一直都是跨学科的学者。在过去,STEM 和人文学科之间并没有如此尖锐的界限,这是一个相对简单的对立分法。我非常相信两者兼备,我认为跨学科技能将是未来的本质。
观众:我是 Miriam Shapiro,CSIS 的非驻地高级顾问。我想具体问问关于错误信息和虚假信息,你认为应该怎么处理这些问题?
Mustafa:是的,我认为在虚假信息方面,有一些不良行为者多年来一直在积极污染信息生态系统。我认为我们的科技巨头平台可以更积极地清除这些内容。同时,我们也在努力保持不损害我们所珍视的言论自由。所以这将是一个不断出现新问题的游戏,特别是当虚假信息的生产成本降低,生产这些内容所需技术门槛降低时,同时我也对人类抱有信心,我们具有非常高的适应性。正如在印度选举中看到的虚假信息和深度伪造的传播,人们很快就能适应并分辨真假,让我们变得更具疑问和参与性,如果这让我们更具探究和参与的热情,我认为这是件好事。
观众:回到中国,显然是国家安全在推动我们的技术政策,似乎有可能走到无法回头的地步。会不会导致两套不同的技术标准的发展?你对此有何看法?
图片来源:Nikkei Asia
Mustafa:我认为,尽管我谈到了合作,我也非常务实地看待已经发生的"巴尔干化"现象。现在我们的出口管制实际上迫使中国发展自己的芯片,而他们本来并不一定要走这条路。聪明的人可以对相同的事实有不同的观点。我们认为,华盛顿认为我们必须分离,这就是我们现在正在走的路,他们正在建立自己的技术生态系统并将其传播到世界各地。我们应该密切注意这些问题,就像我们痴迷于中东问题一样,这虽然是一个重要问题,但不要忽视数字化在非洲价值观塑造中的新形式,以及卫星通信和作業系統的提供将在未来几十年以比地面部队更深远的方式塑造世界。
观众:我是 Sundas,在新泽西当了八年教师。这是我的学生,来自我的班级。我一直在与很多老教师争论使用 AI,因为我是 AI 的大力倡导者。你会对那些特定的教师说些什么?你认为教师如何利用 AI?我知道你简要谈到了学生,但我想了解教育者的观点。
Mustafa:好问题。我觉得让 AI 来制作课程计划是入门的第一个步骤,但与 AI 一起现场表演则是一个有趣的新方向。一个优秀的教师或教育者与 AI 进行深刻对话,并在其学生面前实时演示,然后偶尔让学生参与,这将是什么样的体验?实际上,到今年年底,我们将有实时语音接口,能够进行完全动态的交流,就像我现在与 Andrew 交谈一样。这是一种完全不同的体验。我认为,倾注于这种体验,展示它的美丽,并以此创造,是未来的发展方向。
主持人:各位,我需要感谢你们,但也要抱歉,因为我们的时间到了。感谢你们提出的精彩问题,也请大家一起感谢 Mustafa 带来的精彩对话。
原视频:CEO of Microsoft AI speaks about the future of artificial intelligence at Aspen Ideas Festival
https://www.youtube.com/watch?v=lPvqvt55l3A
END
点击下方卡片,关注预约直播
喜欢这篇文章
请为我点赞和在看
>