今天小编分享的科技经验:美国政府「AI行动计划」万言书发布! OpenAI与Anthropic呼吁联手封锁中国AI,欢迎阅读。
新智元报道
AI 战打到现在,下一步怎么走?
4 月 25 日,美国网络与信息技术研究与发展(NITRD)公开了美国各界就「AI 行动计划」提交的全部书面意见。
拜登的 AI 行政令,在现在这届政府是行不通了,现在,特朗普政府需要一个全新的 AI 行动计划,继续保持美国的 AI 领先地位。
本次收到的意见总数,达到了夸张的10068 份!
这些建议来自美国的各行各业,上至美国学界、行业团体、私营部门组织、美国各州政府,下至热心市民。
在这一万多份意见中,共有 292 家公司发声
其中最亮的,莫过于 OpenAI 和 Anthropic 了。
这两家公司的措辞一致的强硬——必须对中国加强技术封锁!
具体来说,就是必须限制高端 GPU 芯片和模型权重流向中国,而且美国 AI 必须在和中国的竞争中取胜。
Meta 则站在了这两家的对立面,一如既往地强调开源 AI。因此,他们认为对开源模型进行出口管制是根本不可行的,这只会导致美国拱手让出主导权,让全球开发者转向中国的开源模型。
异曲同工的是,谷歌也同样批评了拜登政府的 AI 出口管制,建议特朗普政府在对待出口管制上,一定要精心设计,避免让美国公司处于劣势。
微软和亚马逊,则默契地选择不谈此类话题,只给出了一些一般性建议。
耐人寻味的是,英伟达、苹果、特斯拉三家巨头,并未提交任何意见,马斯克的 xAI 也保持了沉默。
有趣的是,很多美国的「热心市民」对于 AI 持有悲观的态度,他们的意见简单、直接。
相比之下,机构、巨头和学界的回复考究、详细,充分显示了他们的重视态度。
显然,在这场史无前例的 AI 革命中,每个人都无法置身事外。
AI 巨头共同的声音:美国政府责任重大
总的来说,传统的科技巨头们在对待 AI 经济、出口管制以及 AI 监管等关键议题上有很多共性的意见,但也有各自的侧重,以及对 AI 竞争和安全治理的不同理解。
不过至少有一点是一致的。
他们一致认为 AI 至关重要,认为美国应该加大 AI 政务应用策略。
OpenAI:必须锁死中国 AI,包括芯片和模型
OpenAI 对于 AI,尤其是中美 AI 的竞争,一直持有激进的态度。
在三月中旬的一份长达 15 页的上书中,OpenAI 矛头直指 DeepSeek。
在这次的意见中,OpenAI 认为 AI 行动计划的核心目标,就是维持美国在全球 AI 领網域的领导地位,并利用 AI 促进经济繁荣和个人自由。
在檔案一开头,OpenAI 就提出了三个 scaling 原则。
1.AI模型的智能水平大致与训练和运行所使用资源的对数成正比。
OpenAI 表示,自己已经展示了如何通过推理阶段的算力扩展智能。这些扩展规律在多个数量级上都非常精确,因此,智能水平线性增长带来的社会经济价值是超指数级的。
2. 使用特定水平AI能力的成本大约每 12 个月下降 10 倍,且成本下降会促使使用量激增。
举例来说,从 2023 年初的 GPT-4 到 2024 年中的 GPT-4o,单词生成的价格下降了大约 150 倍。因此,AI 使用成本的下降速度比摩尔定律还要惊人。
3. 改进AI模型所需的时间正在持续缩短。
过去,一台计算机在某个基准测试中击败人类平均需要 20 年;后来缩短到 5 年;现在只需 1 到 2 年,而且这种趋势短期内不会停止。
接下来,OpenAI 的尖锐措辞就直指 DeepSeek。
它激烈陈词道:美国正与力图在 2030 年成为全球领导者的中国展开竞争。
这就是为什么 DeepSeek 最近发布的 R1 模型引发关注——并不是因为其性能(尽管 R1 的推理能力令人印象深刻,但与美国几款主流模型相比最多算持平),而是它反映了当前这场竞争的态势。
OpenAI 表示,模型在关键基础设施或其他高风险场景中的使用,存在巨大的风险,因为它可能被强制要求操控模型,以制造危害。
它还无耻地写道:「这些模型在生成如身份欺诈、侵犯知识产权等非法或有害活动指南时也更加宽松,这反映出侵犯美国知识产权被视为优势而非缺陷的态度。」
OpenAI 指出,相比于美国公司,中国 AI 公司有诸多优势。
比如国家可以迅速调动数据、能源、技术人才、芯片产业所需的巨额资金等种种资源。
能利用美国各州分别制定行业法规所带来的「监管套利」机会(这些政策会让美国 AI 企业面临严重的合规负担)。
还能利用版权保护的漏洞进行「版权套利」(这就让其他公司他们无需遵守欧美的知识产权规定,仍然可以获得相同的数据资源,让美国 AI 实验室在竞争中处于劣势)。
因此,OpenAI 对政府有以下建议。
一套保障创新自由的监管策略
一套输出民主型 AI 的出口管制策略
一套促进学习自由的版权策略
一套抓住基础设施机遇推动增长的策略
一套雄心勃勃的政府 AI 应用策略
接下来,在「出口管制」这一部分,OpenAI 继续建议,把全球分为三级。
一级包括美国的盟友,以及那些承诺遵循美国提出的 AI 原则、具有相对较低风险的国家和地区,即能保证美国 AI 基础设施(例如芯片)不会被转移到非一级国家和地区。
二级包括那些有过黑历史,未能防止受控芯片出口和其他美国开发的知识产权被转移到或被三级使用的国家和地区。
三级包括中国及其他受到美国武器禁运的国家和地区。这些应继续受到严格的 AI 系统出口管制,包括现有的对先进芯片的出口管制。
对于三级国家和地区,OpenAI 呼吁严格禁止使用其生成的设备(如芯片)和侵犯用户隐私、产生安全风险的模型。
Anthropic:控制 H20,严防走私!
Anthropic 预计,在未来 2-4 年内,前沿 AI 模型将取得显著的能力进展,特别是在具有重大安全影响的领網域,如生物武器和网络安全风险等。
Claude 3.7 Sonnet 展示了在支持生物武器开发方面令人担忧的进展。
而 Anthropic 旗帜鲜明地表示,美国的国家安全已经到了很紧迫的程度!
在它看来,现在迫切需要保护关键技术基础设施和知识产权免受外国威胁,增强美国的安全。
而且美国政府应当进行投资,以培养一个强大的 AI 开发和部署生态系统,促进美国的繁荣。
Anthropic 坚信,强大的 AI 系统会在 2026 底或 2027 年初出现,就如 CEO Dario Amodei 在他的《爱的机器》一文中讨论的一样。
而这个强大 AI,应该被视为美国关键的国家资产。
接下来,Anthropic 也提到了 DeepSeek,它的原话如下。
强大 AI 评估能力的重要性,今年早些时候发布的 DeepSeek-R1 得到了突出展示。
它提到,R1 能回答大多数生物武器化的问题,在它看来这十分危险。
因此,美国政府需要快速评估未来模型(无论是国外还是国内的)是否具备安全属性的能力。
同样,Anthropic 强调,美国应该加强出口管制,扩大美国的领先优势。
1. 控制 H20 芯片
当前的出口管制不适用于 H20,这是一款 2024 年推出的高内存芯片,计划向中国销售,可以用于训练和运行强大的模型。虽然这些芯片在初期训练中不如 H100,但同样优秀。因此特朗普政府需要关闭这一漏洞。
2. 签署政府对政府協定,防止芯片违规流通
作为托管美国公司超过 50,000 颗芯片数据中心的前提条件,美国应要求高风险的国家和地区遵守政府对政府協定,该協定要求:(1)它们的出口控制系统与美国保持一致;(2)采取措施防止芯片流通到中国;(3)停止本国公司与中国合作。
3. 仔细审查并提高对二级国家和地区的门槛
目前,扩散规则允许来自二级国家和地区的先进芯片订单(少于 1,700 颗 H100,约 4000 万美元的订单)无需审核即可进行。这些订单不计入规则的上限,无论购买方是谁。
Anthropic 表示,这些门槛存在走私风险,因此建议政府考虑减少二级国家和地区无需审核即可购买的 H100 数量。
4. 增加对工业安全局(BIS)出口执法的资金支持
Meta:保护美国开源 AI!
Meta 强调了开放源代码AI的重要性:开放源代码 AI 是美国保持技术优势、促进创新和经济发展的关键。
它举例说,DeepSeek 的发布就说明,即使实施闭源政策,也无法阻止技术向中国的扩散。
Meta 表示,为了在中国的竞争中取胜,美国必须通过开源 AI,促进和鼓励美国开源 AI 的出口。「开源模型对于美国在与中国的人工智能竞争中取胜至关重要,并确保美国在人工智能领網域的主导地位。」
在它看来,如果对开源模型进行出口管制,就会使美国彻底退出这场竞争,这就会让中国公司有机会制定全球的 AI 标准,在全球技术生态系统中植入他们的价值观。
Meta 强调,美国的全球竞争优势,就是去中心化和开放的创新。通过出口管制关闭模型,阻止中国获得美国模型,将是无效的,只会削弱美国的利益。
它举例说,DeepSeek 的发布就说明,即使实施闭源政策,也无法阻止技术向中国的扩散。
Meta 提出了三大核心建议,以确保美国在 AI 领網域的持续领导地位:
1. 保护并推广美国开放源代码AI
促进开放源代码 AI 的出口,避免对开放模型实施出口管制。政府优先采用开放源代码 AI,提升政府效率、降低成本,并增强国家安全。
2. 减少创新障碍,保持全球技术领导地位
简化数据中心的能源和建设审批流程,推动先进核能技术发展,避免各州 AI 法规的碎片化,防止对创新造成阻碍。
加快宽带和海底光缆部署,优化联邦土地上的光纤网络审批流程。
3. 在国际上捍卫美国技术利益
保护美国企业免受欧盟等地区的高额罚款和歧视性监管。
应对欧盟 AI 法案的负面影响:避免欧盟的过度监管损害美国企业的竞争力。防止外国政府通过反垄断审查限制美国科技公司的创新和并购活动。
比起上面几方亮点满满的发言,接下来两大巨头的建言,相对而言就比较官方了。
谷歌:加强 AI 投资和国际合作
谷歌建议,政府要关注三个关键领網域:AI投资、政务 AI、国际合作。
1. 加大对 AI 的投资
政府与产业界协同合作;实施平衡的出口管制政策,兼顾国家安全和企业利益;持续资助基础 AI 研发;制定有利创新的全国级政策框架。
2. 加速并现代化政务 AI 应用
政府应完善公共采购规则,促进云解决方案间的互操作性和数据便携性,简化采购流程,推动数字化转型。
制定统一的数据标准和 API,建立敏捷的授权流程。
同时,加强与私营部门合作,保障关键基础设施和网络安全,采用多云多模型方法用于国家安全。
3. 在国际上推动有利于创新的 AI 发展路径
建议美国政府推动市场导向、被广泛采用的前沿 AI 模型技术标准与安全協定;制定量身定制的協定和标准,识别并应对前沿 AI 系统可能带来的国家安全风险; 抵制限制性的外国 AI 政策壁垒。
与 OpenAI 类似,谷歌也主张放宽对 AI 训练限制,要求「合理使用」知识版权。
谷歌希望确立其与竞争对手使用公开可用数据(包括受版权保护的数据)进行训练的权利。
据报道,谷歌已使用公开的版权数据训练了多个模型,被指控谷歌在进行训练前未通知版权方并支付报酬。
美国法院尚未裁定「合理使用」原则是否有效地保护 AI 开发者免受知识产权诉讼。
微软:成为政府值得信赖的合作伙伴
微软表示愿意成为政府值得信赖的合作伙伴,提出以下三个建议:
1. 加速美国 AI 发展
2. 保护公众、加强国家安全
3. 投资科学研究与建立基于科学的 AI 标准
微软认为要想在全球范围内持续保持美国在AI领網域的创新与领导地位,就必须实现政府与私营部门的深度协同,共同挖掘和发挥美国在本土的全部潜力。
此外,还要依托 AI 技术栈各个层面的企业之间的持续合作,这些企业从芯片设计商,到超大规模云服务提供商,再到 AI 模型开发者,构成了完整的 AI 生态体系。
此外,政府与企业都需要能够获取行业领先与开源模型的渠道,以在性能、安全和成本之间取得最佳平衡。
而且,美国还应该投资科学研究与 AI 标准体系建设。
特朗普:AI 行动计划
早在 2025 年 1 月 23 日,美国就公布了新任总统 Trump 签字的美国总统行政命令(行政命令 14179),旨在消除美国在 AI 领網域领导地位的障碍。
文末是特朗普的签名
根据这项行政命令,科技政策办公室(OSTP)通过网络和信息技术研发(NITRD)国家协调办公室(NCO)和国家科学基金会,于 2025 年 2 月 6 日发布了一份关于制定 AI 行动计划的信息请求(RFI,Request for Information)。
这次征求意见的截止日期为 3 月 15 日。
通过这份 RFI,OSTP 和 NITRD NCO 向公众征求了意见,包括学术界、行业团体、私营部门组织、州、地方和部落政府以及任何其他感兴趣的相关方。
这「万份建言」中,个人意见达到了 9313 份,可见民众对于这份重磅政策檔案的高度期待。
当然,最能影响最终方案制定还要属那几家重量级的企业。
特朗普的「灵魂三问」
现任 OSTP 主任是 Michael Kratsios。
去年 12 月 22 日,特朗普提名技术专家 Michael Kratsios 担任 OSTP 主任和总统科技助理。
在 3 月 26 号的一封白宫公开信中,特朗普对 Michael Kratsios 发出了灵魂三问。
第一:美国如何确保自己在关键和新兴技术领網域(如 AI、量子信息科学和核技术)继续保持无可匹敌的世界领导地位,并保持对潜在对手的技术优势?
第二:如何振兴美国的科学和技术事业——追求真理,减少行政负担,赋能研究人员实现突破性的发现?
第三:如何确保科学进步和技术创新推动经济增长,并改善所有美国人的生活?
在这 10068 份对于 AI 的意见中,就藏着这三个问题的答案。