今天小编分享的互联网经验:OpenAI 公开曝光高管邮件,坦言:埃隆·马斯克是得不到就想毁掉,欢迎阅读。
OpenAI 今天在官网发布新闻稿,回应埃隆 · 马斯克起诉一事。该文章由 Sam Altman、Greg Brockman、Ilya Sutskever 等人共同署名。文章表示,OpenAI 打算驳回埃隆 · 马斯克的所有诉讼请求,并公布了一些高层和埃隆 · 马斯克的历史往来邮件作为证据。
以下为新闻稿原文翻译:
OpenAI 的使命是确保 AGI 造福全人类,这意味着既要构建安全有益的 AGI,又要帮助人类创造收益。现在,我们将与大家分享我们在完成使命方面的心得,以及我们与埃隆之间关系的一些事实情况。
我们正打算驳回埃隆的所有诉讼请求。
我们意识到,构建 AGI 所需的资源远远超出我们最初的想象
埃隆说,我们应该布向 OpenAI 提供 10 亿美元的初始资金承诺。实际上,这家非营利组织总共从埃隆那里筹集了不到 4500 万美元,从其他捐赠者那里筹集了 9000 多万美元。
在 2015 年底创办 OpenAI 时,格雷格和萨姆最初计划筹集 1 亿美元。但是埃隆在一封电子邮件中表示 " 我们需要一个比 1 亿美元大得多的数字,以免让人听起来觉得毫无希望……我认为我们应该从 10 亿美元的资金承诺开始 . 如果其他人不提供的,我会承担。" [ 1 ]
我们花了很多时间来设想通往 AGI 的合理路径。2017 年初,我们意识到构建 AGI 需要大量的计算。我们开始计算 AGI 可能需要多少计算量。我们都明白,要想成功完成使命,我们将需要更多的资金 -- 这将达到每年数十亿美元,远远超出了我们任何人的想象,尤其是埃隆,他认为我们作为非营利组织无法筹集到这么多资金。
我们和埃隆都认识到,要获得这些资源,就必须建立一个营利实体。
在我们讨论营利性结构以推进使命时,埃隆希望我们与特斯拉合并,否则他需要获得全部的控制权。这之后埃隆离开了 OpenAI,他说需要有一个与谷歌 /DeepMind 相对应的竞争对手,而他打算自己来做这件事。他同事表示,他会支持我们找到自己的道路。
2017 年底,我们和埃隆决定下一步的任务是创建一个营利实体。埃隆希望获得多数股权以及最初的董事会控制权,并担任首席执行官。在这些讨论中,他扣留了资金。Reid Hoffman 填补了资金缺口,为我们支付了工资和运营费用。
我们无法就营利性公司的条款与埃隆达成一致,因为我们认为任何个人对 OpenAI 拥有绝对控制权都有悖于公司的使命。于是,他建议将 OpenAI 并入特斯拉。2018 年 2 月初,埃隆给我们转发了一封邮件,建议 OpenAI " 依附于特斯拉,将其作为自己的资金来源 ",并评论说 " 完全正确……特斯拉是唯一一条甚至有望与谷歌相提并论的道路。即便如此,与谷歌抗衡的可能性也很小。但并不是零 "。 [ 2 ]
埃隆很快选择离开 OpenAI,他说我们的成功概率为 0,他计划在特斯拉内部建立一个 AGI 团队与我们竞争。他在 2018 年 2 月底离开时告诉我们,他支持我们自己寻找筹集数十亿美元的道路。2018 年 12 月,埃隆给我们发邮件说:" 即使筹集到几亿美元也不够。这需要每年筹集数十亿美元,否则就算了。" [ 3 ]
我们通过构建可广泛使用的有益工具来推进我们的使命
我们通过开源等方式,使我们的技术能够广泛使用,从而提高人们的效率,改善他们的日常生活。
我们向大众提供了当今最强大的人工智能,包括每天有数亿人使用的免费版本。举个例子,阿尔巴尼亚正在使用 OpenAI 的工具将其加入欧盟的时间加快了 5.5 年;数字绿色公司正在帮助肯亞和印度提高农民收入,通过在 OpenAI 的基础上将农业推广服务的成本降低 100 倍;罗德岛州最大的医疗保健提供商 Lifespan 使用 GPT-4 将其手术同意书从大学阅读水平简化到六年级水平;而冰岛正在使用 GPT-4 保护越来越少人使用的冰岛语。
埃隆明白,这些工作并不意味着开源 AGI。正如伊利亚告诉埃隆的那样 " 随着我们越来越接近 AGI,开始降低开放程度是有意义的。 OpenAI 中的 " 开放 " 是指人工智能建成后,每个人都应从人工智能的成果中受益,但不分享科学成果也完全没问题…… ",埃隆回答道: " 是的 "。 [ 4 ]
对于埃隆的起诉,我们倍感遗憾。我们深深钦佩的一个人走到了这一步。他曾激励我们向更高的目标迈进,然后告诉我们会失败,建立了一个竞争对手团队,而当我们开始在没有他的情况下朝着 OpenAI 的使命取得有意义的进展时,他又将我们告上法庭。
我们专注于推进自己的使命,这还有很长的路要走。我们相信随着我们的产品越来越好,他们将更好地为每个人赋权。
以下为往来邮件翻译:
[ 1 ]
发件人 埃隆 - 马斯克
收件人 格雷格 - 布罗克曼
抄送: Sam Altman
Date: Sun, Nov 22, 2015 at 7:48 PM
主题: 通话后续
博客听起来不错,但要考虑到中立性和以青委会为中心。
我更倾向于将博客定位为更吸引普通大众--让大众支持我们取得成功有很大的价值--然后为招聘工作准备一个更长、更详细、更有内幕的版本,并在普通大众版本的末尾提供链接。
我们需要一个比 1 亿美元大得多的数字,以避免与谷歌或 Facebook 的支出相比显得毫无希望。我认为我们应该说,我们将从 10 亿美元的资金承诺开始。这是真的。其他人不提供的,我都会提供。
模板看起来还不错,除了默认转为归属现金红利外,还可以选择将其转为 YC 或 SpaceX(需要了解具体数额)的股票。
[ 2 ]
收件人 Ilya Sutskever 、Greg Brockman
Date: 2018 年 2 月 1 日 星期四 凌晨 3:52
主题 Fwd: 今天的顶级人工智能机构
说得一点没错。我们或许希望如此,但在我看来,特斯拉是唯一能与谷歌抗衡的公司。即便如此,与谷歌抗衡的可能性也很小,但也不是零。
开始转发信息:
发件人:
致 埃隆 - 马斯克
日期 太平洋标准时间 2018 年 1 月 31 日下午 11:54:30
主题 Re: 当今顶尖的人工智能机构
不幸的是,在人工智能的最前沿工作是昂贵的。除了 DeepMind,谷歌还有 Google Brain、Research 和 Cloud。还有 TensorFlow、TPU,它们拥有大约三分之一的研究成果(事实上,它们还举办自己的人工智能会议)。
我还强烈怀疑,要实现 AGI,计算能力将是必要的。如果历史趋势能够说明问题,那么人工智能的进步主要是由系统--计算、数据、基础设施--驱动的。我们今天使用的核心算法与上世纪 90 年代相比基本没有变化。不仅如此,任何发表在论文中的算法进展几乎都可以立即被重新实现和整合。反过来说,如果没有一定的规模,单靠算法的进步是没有生命力的。
在我看来,如今的 OpenAI 正在烧钱,其融资模式无法达到与谷歌(一家 8000 亿美元的公司)认真竞争的规模。如果你无法与谷歌认真竞争,却继续在开放环境中进行研究,那么你可能会让事情变得更糟,并 " 免费 " 帮助他们,因为他们很容易复制任何进步,并立即将其规模化。
以营利为目的的转型可能会随着时间的推移创造出更稳定的收入来源,而就目前的团队而言,很可能会带来大量投资。然而,从零开始打造产品会抢走人工智能研究的重点,而且需要很长时间,目前还不清楚一家公司能否 " 赶上 " 谷歌的规模,投资者也可能会在错误的方向上施加过多压力。我所能想到的最有希望的方案,正如我之前提到的,就是让 OpenAI 附属于特斯拉,将其作为自己的资金来源。我认为,依附于其他大型公司(如苹果、亚马逊),会因公司基因不兼容而失败。打个比方,特斯拉已经建造了火箭的 " 第一级 ",包括 Model 3 的整个供应链、车载电腦和持续的互联网连接。第二阶段 " 将是基于大规模神经网络训练的完全自动驾驶解决方案,OpenAI 的专业技术可以大大帮助加快这一进程。在大约 2-3 年的时间里,我们就能推出功能完善的完全自动驾驶解决方案,销售大量汽车 / 卡车。如果我们真的做得很好,运输行业的规模足够大,我们可以将特斯拉的市值提高到 O(约 10 万美金),并利用这笔收入为适当规模的人工智能工作提供资金。
我看不到有任何其他公司有潜力在十年内达到可持续的谷歌规模资本。
[ 3 ]
收件人 Ilya Sutskever 、Greg Brockman
抄送: Sam Altman
Date: Wed, Dec 26, 2018 at 12:07 PM
主题: 我觉得我应该重申
在执行和资源没有发生巨大变化的情况下,我对 OpenAI 与 DeepMind/Google 相关性的概率评估是 0%。而不是 1%。我希望不是这样。
即使筹集到几亿美元也不够。这需要每年立即筹集数十亿美元,否则就算了。
不幸的是,人类的未来掌握在【未透露名称】手中。
他们所做的远不止这些。
我真希望我错了。
埃隆
【4】
Fwd: 恭喜猎鹰 9
包含 3 条信息
发件人 Elon Musk
收件人 Sam Altman、Ilya Sutskever、 Greg Brockman
日期 Sat, Jan 2, 2016 at 8:18 AM
主题 收件人: 恭喜猎鹰 9 号
开始转发消息:
From: 未透露姓名
To: 埃隆 - 马斯克
日期: 美国中部时间 2016 年 1 月 2 日上午 10:12:32
主题: 恭喜猎鹰 9 号
嗨,埃隆
祝你新年快乐,
首先祝贺猎鹰 9 号着陆,这是一项了不起的成就。现在是时候组建舰队了!
我看到你(还有萨姆和其他 OpenAI 人士)最近接受了很多采访,大肆宣扬人工智能开源的优点,但我想你应该意识到,这并不是某种能神奇地解决安全问题的灵丹妙药吧?有很多很好的论据可以说明,为什么你所采取的方法实际上是非常危险的,事实上可能会增加世界的风险。在这篇博文中,一些比较明显的观点得到了很好地阐述,我相信你已经看到了,但还有其他一些重要的考虑因素:
http://slatestarcodex.com/2015/12/17/should-ai-be-open/
我很想听听你对这些观点的反驳。
发件人 Ilya Sutskever
致 Elon Musk 、Sam Altman、 Greg Brockman
日期 Sat, Jan 2, 2016 at 9:06 AM
主题 Fwd: 恭喜猎鹰 9 号
这篇文章关注的是 " 硬起飞 "
如果发生 " 硬起飞 ",而安全的人工智能比不安全的人工智能更难构建,那么通过开放一切,我们就会让那些能够获得大量硬體的不法分子轻而易举地构建出不安全的人工智能,从而遭遇 " 硬起飞 "。
当我们越来越接近构建人工智能时,开始降低开放程度将变得更有意义。openAI 中的 " 开放 " 意味着,在人工智能建成后,每个人都应从人工智能的成果中获益,但不分享科学知识也是完全可以的(尽管在短期和中期内,为了招聘的目的,分享一切绝对是正确的策略)。
来自 埃隆 - 马斯克
收件人 Ilya Sutskever
日期 Sat, Jan 2, 2016 at 9:11 AM
是的
(吕可 / 译)