今天小編分享的科技經驗:人工智能教父Yoshua Bengio:我們正在創造比人類更強大的怪物,歡迎閱讀。
鞭牛士報道,10 月 11 日消息,據雅虎财經報道,無論您認為人工智能将拯救世界還是毀滅世界,毫無疑問,我們正處于一個充滿熱情的時刻。眾所周知,如果沒有 Yoshua Bengio,人工智能可能就不存在了。
60 歲的本吉奧被稱為人工智能教父,是一位加拿大計算機科學家,他致力于神經網絡和深度學習算法的研究。他的開創性工作為我們今天使用的人工智能模型開辟了道路,例如 OpenAI 的 ChatGPT 和 Anthropic 的 Claude。
「智能賦予權力,無論誰控制了這種權力——無論是人類水平還是更高——都将變得非常非常強大。」本吉奧在接受雅虎财經采訪時表示。「總的來說,技術被那些想要更多權力的人所利用:經濟主導地位、軍事主導地位、政治主導地位。因此,在我們創造可能以危險的方式集中權力的技術之前——我們需要非常小心。」
2018 年,本吉奧與兩位同事——前谷歌 ( GOOG ) 副總裁傑弗裡 · 辛頓(2024 年諾貝爾物理學獎得主)和 Meta ( META ) 首席人工智能科學家揚 · 勒昆共同獲得了圖靈獎(有計算界諾貝爾獎之稱)。2022 年,本吉奧成為全球被引用次數最多的計算機科學家。《時代》雜志将他評選為全球 100 位最具影響力人物之一。
盡管 Bengio 幫助發明了這項技術,但他現在已成為人工智能領網域的謹慎之聲。這種謹慎是随着投資者繼續對該領網域表現出極大的熱情而產生的——今年人工智能的股價創下了新高。
例如,人工智能芯片寵兒 Nvidia(NVDA)的股價今年迄今已上漲 162%,而标準普爾 500 指數的漲幅為 21%。
根據雅虎财經的數據,該公司目前的估值高達 3.25 萬億美元,略微落後于蘋果 ( AAPL ) ,成為全球最有價值公司。
雅虎财經采訪了 Bengio,談論人工智能可能帶來的威脅以及哪些科技公司做得對。
為簡潔起見,我們對采訪内容進行了編輯。
為什麼我們應該關注人類水平的智能?
「如果這些技術落入壞人之手,無論這意味着什麼,都可能非常危險。這些工具很快就會幫助恐怖分子,它們也可能幫助那些想要摧毀我們民主的國家行為者。還有許多科學家指出的問題,也就是我們現在訓練它們的方式——我們不清楚如何避免這些系統變得自主并有自己的保護目标,我們可能會失去對這些系統的控制。所以我們可能正在走上一條創造比我們更強大的怪物的道路。」
OpenAI、Meta、谷歌、亞馬遜——哪家大型人工智能公司做得對?
「從道德上講,我認為表現最好的公司是 Anthropic(主要投資者包括亞馬遜和谷歌)。但我認為他們都有偏見,因為在經濟結構中,他們的生存取決于成為領先公司之一,理想情況下是成為第一個實現 AGI 的公司。這意味着一場競賽——企業之間的軍備競賽,公共安全很可能是失敗的目标。
Anthropic 發出了很多信号,表明他們非常關心如何避免災難性後果。他們是第一個提出安全政策的公司,承諾如果人工智能最終擁有可能造成危險的能力,他們就會停止這種努力。他們也是唯一支持 SB 1047 的公司,與 Elon Musk 一樣。換句話說,他們說 " 是的,經過一些改進,我們同意提高安全程式和結果的透明度,并承擔責任,如果我們造成重大傷害。」
您是否考慮過 Nvidia 等人工智能股票的大幅上漲?
「我認為可以确定的是長期的發展軌迹。所以如果你長期堅持,這是一個相當安全的選擇,除非我們無法保護公眾 …… [ 那麼 ] 反應可能是一切都會崩潰,對吧?要麼是因為社會普遍反對人工智能,要麼是因為真正災難性的事情發生了,我們的經濟結構崩潰了。
不管怎樣,這對投資者來說都是壞消息。所以我認為,如果投資者夠聰明的話,他們應該明白我們需要謹慎行事,避免犯下可能損害我們共同未來的錯誤和災難。」
對人工智能芯片競賽的看法?
「我認為芯片顯然正在成為難題的一個重要部分,當然,這也是一個瓶頸。随着各種事件的發生和我可以預見的未來幾年的科學進步,對大量計算的需求很可能不會消失,因此擁有高端人工智能芯片功能将具有戰略價值——供應鏈中的所有步驟都很重要。目前很少有公司能夠做到這一點,所以我預計會看到更多的投資,并希望實現多元化。」
您如何看待 Salesforce 到 2026 年推出 10 億自主代理?
「自主性是這些公司的目标之一,從經濟和商業角度來看,這是一個巨大的突破,因為它将開辟大量應用。想想所有的個人助理應用。它需要比目前最先進的系統所能提供的更多的自主性。所以他們追求這樣的目标也是可以理解的。Salesforce(CRM)認為他們能在兩年内實現這一目标,這讓我很擔心。我們需要在實現這一目标之前做好政府和技術方面的準備。」
紐森州長否決了加州的 SB 1047 ——這是一個錯誤嗎?
「他給出的理由讓我聽不懂,比如不僅要監管大型系統,還要監管所有小型系統 …… 事情可能會迅速發展——我們讨論過幾年。也許即使可能性很小,比如 10% [ 災難發生的可能性 ] ,我們也需要做好準備。我們需要制定法規。我們需要讓公司已經開始記錄他們正在做的事情,并且要讓整個行業保持一致。
另一件事是這些公司擔心訴訟。我與很多公司進行了交談,但已經有了侵權法,因此如果它們造成損害,随時都有可能提起訴訟。而該法案在責任方面所做的就是縮小訴訟範圍 …… 有 10 個條件,你需要滿足所有這些條件,法律才能支持訴訟。所以我認為這實際上是有幫助的。但意識形态上存在着對任何參與的抵制——任何與現狀不符的事情,任何國家對這些人工智能實驗室事務的更多幹預。」