今天小编分享的科技经验:人工智能教父Yoshua Bengio:我们正在创造比人类更强大的怪物,欢迎阅读。
鞭牛士报道,10 月 11 日消息,据雅虎财经报道,无论您认为人工智能将拯救世界还是毁灭世界,毫无疑问,我们正处于一个充满热情的时刻。众所周知,如果没有 Yoshua Bengio,人工智能可能就不存在了。
60 岁的本吉奥被称为人工智能教父,是一位加拿大计算机科学家,他致力于神经网络和深度学习算法的研究。他的开创性工作为我们今天使用的人工智能模型开辟了道路,例如 OpenAI 的 ChatGPT 和 Anthropic 的 Claude。
「智能赋予权力,无论谁控制了这种权力——无论是人类水平还是更高——都将变得非常非常强大。」本吉奥在接受雅虎财经采访时表示。「总的来说,技术被那些想要更多权力的人所利用:经济主导地位、军事主导地位、政治主导地位。因此,在我们创造可能以危险的方式集中权力的技术之前——我们需要非常小心。」
2018 年,本吉奥与两位同事——前谷歌 ( GOOG ) 副总裁杰弗里 · 辛顿(2024 年诺贝尔物理学奖得主)和 Meta ( META ) 首席人工智能科学家扬 · 勒昆共同获得了图灵奖(有计算界诺贝尔奖之称)。2022 年,本吉奥成为全球被引用次数最多的计算机科学家。《时代》杂志将他评选为全球 100 位最具影响力人物之一。
尽管 Bengio 帮助发明了这项技术,但他现在已成为人工智能领網域的谨慎之声。这种谨慎是随着投资者继续对该领網域表现出极大的热情而产生的——今年人工智能的股价创下了新高。
例如,人工智能芯片宠儿 Nvidia(NVDA)的股价今年迄今已上涨 162%,而标准普尔 500 指数的涨幅为 21%。
根据雅虎财经的数据,该公司目前的估值高达 3.25 万亿美元,略微落后于苹果 ( AAPL ) ,成为全球最有价值公司。
雅虎财经采访了 Bengio,谈论人工智能可能带来的威胁以及哪些科技公司做得对。
为简洁起见,我们对采访内容进行了编辑。
为什么我们应该关注人类水平的智能?
「如果这些技术落入坏人之手,无论这意味着什么,都可能非常危险。这些工具很快就会帮助恐怖分子,它们也可能帮助那些想要摧毁我们民主的国家行为者。还有许多科学家指出的问题,也就是我们现在训练它们的方式——我们不清楚如何避免这些系统变得自主并有自己的保护目标,我们可能会失去对这些系统的控制。所以我们可能正在走上一条创造比我们更强大的怪物的道路。」
OpenAI、Meta、谷歌、亚马逊——哪家大型人工智能公司做得对?
「从道德上讲,我认为表现最好的公司是 Anthropic(主要投资者包括亚马逊和谷歌)。但我认为他们都有偏见,因为在经济结构中,他们的生存取决于成为领先公司之一,理想情况下是成为第一个实现 AGI 的公司。这意味着一场竞赛——企业之间的军备竞赛,公共安全很可能是失败的目标。
Anthropic 发出了很多信号,表明他们非常关心如何避免灾难性后果。他们是第一个提出安全政策的公司,承诺如果人工智能最终拥有可能造成危险的能力,他们就会停止这种努力。他们也是唯一支持 SB 1047 的公司,与 Elon Musk 一样。换句话说,他们说 " 是的,经过一些改进,我们同意提高安全程式和结果的透明度,并承担责任,如果我们造成重大伤害。」
您是否考虑过 Nvidia 等人工智能股票的大幅上涨?
「我认为可以确定的是长期的发展轨迹。所以如果你长期坚持,这是一个相当安全的选择,除非我们无法保护公众 …… [ 那么 ] 反应可能是一切都会崩溃,对吧?要么是因为社会普遍反对人工智能,要么是因为真正灾难性的事情发生了,我们的经济结构崩溃了。
不管怎样,这对投资者来说都是坏消息。所以我认为,如果投资者够聪明的话,他们应该明白我们需要谨慎行事,避免犯下可能损害我们共同未来的错误和灾难。」
对人工智能芯片竞赛的看法?
「我认为芯片显然正在成为难题的一个重要部分,当然,这也是一个瓶颈。随着各种事件的发生和我可以预见的未来几年的科学进步,对大量计算的需求很可能不会消失,因此拥有高端人工智能芯片功能将具有战略价值——供应链中的所有步骤都很重要。目前很少有公司能够做到这一点,所以我预计会看到更多的投资,并希望实现多元化。」
您如何看待 Salesforce 到 2026 年推出 10 亿自主代理?
「自主性是这些公司的目标之一,从经济和商业角度来看,这是一个巨大的突破,因为它将开辟大量应用。想想所有的个人助理应用。它需要比目前最先进的系统所能提供的更多的自主性。所以他们追求这样的目标也是可以理解的。Salesforce(CRM)认为他们能在两年内实现这一目标,这让我很担心。我们需要在实现这一目标之前做好政府和技术方面的准备。」
纽森州长否决了加州的 SB 1047 ——这是一个错误吗?
「他给出的理由让我听不懂,比如不仅要监管大型系统,还要监管所有小型系统 …… 事情可能会迅速发展——我们讨论过几年。也许即使可能性很小,比如 10% [ 灾难发生的可能性 ] ,我们也需要做好准备。我们需要制定法规。我们需要让公司已经开始记录他们正在做的事情,并且要让整个行业保持一致。
另一件事是这些公司担心诉讼。我与很多公司进行了交谈,但已经有了侵权法,因此如果它们造成损害,随时都有可能提起诉讼。而该法案在责任方面所做的就是缩小诉讼范围 …… 有 10 个条件,你需要满足所有这些条件,法律才能支持诉讼。所以我认为这实际上是有帮助的。但意识形态上存在着对任何参与的抵制——任何与现状不符的事情,任何国家对这些人工智能实验室事务的更多干预。」