今天小编分享的科技经验:7家AI巨头,在白宫做出“自愿”承诺,欢迎阅读。
作者 | 周愚
编辑 | 邓咏仪
" 我们必须对新兴技术的风险保持清醒和警惕,这些风险可能会对我们的民主和价值观构成威胁。"
美国时间 7 月 21 日,美国总统拜登在讲话中如此说道。当天,白宫宣布,7 家人工智能领網域的巨头经过与白宫数月的磋商后," 自愿 " 做出一系列承诺,以应对 AI 带来的风险。
这 7 家公司包括 Google、微软、Meta、OpenAI、亚马逊、Anthropic 和 Inflection。
7 家 AI 公司的代表在白宫,与美国总统拜登共同宣布承诺。来源:Getty Images
在实质性的法律法规到来之前,拜登政府希望用 " 自愿承诺 " 的方式,实现人工智能技术安全、可靠和透明的发展目标。白宫官员承认,目前没有执行机制来确保这些公司遵守承诺,但正在制定一项有关的行政命令。
随着生成式 AI 的广泛运用,各类图文、甚至音视频的假消息开始泛滥,虚假信息传播成为了人们对 AI 的一大担忧。尤其是在美国 2024 大选前夕,这一议题受到了更多关注。
7 家公司共同宣布,将开发例如水印系统的技术,以确保用户能够分别人工智能生成的内容。
此次,7 家公司共同或部分做出的其他承诺还包括:
投资网络安全和内部威胁防护措施,以保护专有和未发布的模型权重;
促进第三方发现和报告其人工智能模型中的漏洞;
公开报告其人工智能模型的能力、限制以及适当和不适当使用的领網域;
优先研究人工智能模型可能带来的社会风险,包括避免有害的偏见和歧视以及保护隐私;
开发和部署先进的人工智能模型,以帮助解决社会面临的最大挑战。
在今年 6 月,欧盟专员蒂埃里 · 布雷顿访问旧金山期间,就曾与 OpenAI CEO 奥特曼讨论过人工智能生成内容水印的问题。奥特曼当时表示," 很乐意很快 " 展示 OpenAI 对水印的处理。
尽管拜登称这些承诺是 " 真实而具体的 ",但其中的许多项都有些模糊,缺乏具体执行的细节,反而更具象征意义。
例如,7 家公司共同承诺,在行业内及与政府、民间社会和学术界分享有关管理人工智能风险的信息。不过,如何确定风险信息的披露范围、如何进行披露都存在待商讨的模糊地带。
不同 AI 公司对于信息披露的态度也截然不同。Meta 对于其 AI 模型的分享显然更加开放,大部分模型均为开源,公开供所有人使用。然而,OpenAI 在发布 GPT-4 时则称,出于对竞争和安全的考虑,拒绝公布模型的训练数据量和模型尺寸。
承诺中还指出,在发布 AI 模型之前,会对其进行内部和外部的安全测试。然而,这条承诺并没有明确说明这些模型需要经过什么测试,测试应当由什么机构完成,测试的具体标准是怎样的。
事实上,这些 AI 公司在发布模型之前,都宣称已经对其进行了内部的安全测试。不过,此次是这些公司首次集体承诺,允许外部专家对其模型进行测试。