今天小編分享的互聯網經驗:比爾蓋茨最新博文:AI的風險确實存在,但是可控,歡迎閲讀。
作者 | 黃金瓊
編輯 | 鄧詠儀
ChatGPT 爆火半年有多,在快速發展之餘,除了解決技術問題,合規可能會是接下來的老大難——在國會傳訊 Sam Altman 後,如今 FTC(美國聯邦貿易委員會)也正式對 ChatGPT 進行調查。
這與前幾天比爾蓋茨的發聲相呼應。他在最新博文中表示:AI 是最具變革性的創新,誠然有風險,但風險也可控。
在博文中,比爾蓋茨主要讨論了人工智能的風險和挑戰,以及如何應對這些問題,其中還提供了一些例子和建議。
比爾蓋茨首先對如今人們存在的對 AI 擔憂表示肯定——現在正處于人工智能深刻變革的時代,這是一個不确定的時代。但他樂觀地認為,這些風險都是可控的。
其次,比爾蓋茨也列出了當前 AI 所引發的風險,包括人工智能生成的深度偽造和錯誤信息可能會破壞選舉和民主、使得個人和政府發動攻擊變得更加容易、将奪走人們的工作以及 AI 繼承人類偏見并胡編亂造,學生不會學習寫作因為 AI 會替他們完成等。
最後,比爾蓋茨也提出一系列監管 AI 的建議。在各國政府層面,各國政府需要積累人工智能方面的專業知識,以制定應對 AI 的法律法規,來應對虛假信息和深度偽造、安全威脅、就業市場變化以及對教育的影響等問題。
而在解決方式上,政府領導人要與其他國家進行合作,而不應該是單打獨鬥,還要與人們進行知情的、深思熟慮的對話的能力。
此外,對企業來説,AI 公司要具有負責任的态度,工作開展要保證安全性,包括保護人們隐私等等。
以下為全文内容,翻譯來自 GPT-4,經 36 氪編輯整理:
人工智能帶來的風險似乎壓倒一切。那些失去工作被智能機器取代的人該怎麼辦?AI 會影響選舉結果嗎?如果未來的 AI 決定不再需要人類,想要擺脱我們,該怎麼辦?
這些都是合理的問題,我們需要認真對待它們所引發的擔憂。但我們有充分的理由相信我們能夠應對這些問題:這并不是第一次在重大創新中,引入了必須加以控制的新威脅,我們以前也曾遇到過。
無論是汽車的問世,還是個人電腦和互聯網的興起,人們都曾歷經過其他變革時刻,盡管經歷了許多動蕩,但最終都得到了更好的發展。第一輛汽車上路後不久,就發生了第一起車禍。但我們并沒有禁止汽車,而是采用了限速、安全标準、駕照要求、酒駕法以及其他道路規則。
我們現在正處于另一場深刻變革的初期階段,即 AI 時代,這與限速和安全帶之前的不确定時代相類似。人工智能的變化如此之快,以至于我們還不清楚下一步會發生什麼。我們正面臨着由當前技術運作方式、人們将其用于惡意意圖的方式以及人工智能如何改變我們作為社會成員和個體所引發的重大問題。
在這樣的時刻,感到不安是很自然的。但歷史表明,解決新技術帶來的挑戰是可能的。
我曾經寫過人工智能将如何徹底改變我們的生活,它将幫助解決健康、教育、氣候變化等方面過去似乎難以解決的問題。蓋茨基金正在把這個問題作為優先事項,我們的首席執行官馬克 - 蘇茲曼(Mark Suzman)最近分享了他對 AI 在減少不平等中的角色的思考。
我将在未來更多地讨論人工智能的好處,但在這篇文章中,我想談談我聽到和讀到的最常見的擔憂,其中許多我也有同感,并解釋一下我是如何看待這些擔憂的。
從迄今為止關于人工智能風險的所有文章中,有一件事情很明确,那就是沒有人擁有所有的答案。另一點對我來説很明确的是,人工智能的未來并不像某些人想象的那樣嚴峻,也不像其他人想象的那樣美好。風險是真實存在的,但我樂觀地認為這些風險是可以控制的。當我逐一讨論每個問題時,我将回到幾個主題:
人工智能引發的許多問題都有歷史先例。例如,它将對教育產生巨大影響,但幾十年前的便攜式計算器,以及最近的允許電腦進入課堂也是如此,我們可以借鑑過去的成功經驗。
人工智能帶來的許多問題也可以在人工智能的幫助下得到解決。
我們需要調整舊法并頒布新法——就像現有的反欺詐法律必須适應網絡世界一樣。
在這篇文章中,我将重點關注已經存在或即将存在的風險。我并不打算讨論當我們開發出一種能夠學習任何學科或任務的人工智能時會發生什麼。相反,我今天讨論的是專門構建的 AI。
無論我們是在十年内還是一個世紀内達到這一點,社會都将需要面對一些深刻的問題。如果一個超級 AI 确立了自己的目标怎麼辦?如果它們與人類的目标相衝突怎麼辦?我們是否應該制造超級 AI?
但是,在考慮這些長期風險時,不應忽視眼前的風險。我現在來談談這些短期的風險。
AI 生成的偽造内容和錯誤信息可能會破壞選舉和民主
利用技術傳播謊言和不實信息并不是什麼新鮮事。幾個世紀以來,人們一直通過書籍和傳單來傳播謊言。随着文字處理機、雷射印表機、電子郵件和社交網絡的出現,這種做法變得更加容易。
人工智能将這個假文本的問題擴大化,使幾乎任何人都可以制作偽造的音頻和視頻,這就是所謂的深度偽造。如果你收到一個看起來像你孩子的聲音信息説 " 我被綁架了,請在接下來的 10 分鍾内向這個銀行賬户匯款 1000 美元,并且不要報警 ",那麼它将產生遠超過同樣内容的電子郵件的恐怖情緒影響。
在更大的範圍内,人工智能生成的深度偽造可能會被用來試圖影響選舉結果。當然,不需要復雜的技術就可以對選舉的合法赢家產生懷疑,但人工智能将使這一過程變得更加容易。
目前,已經出現了一些虛假視頻,這些視頻中包含了眾所周知的政治家被編造的片段。想象一下,在一次重要選舉的早晨,一段顯示某位候選人搶劫銀行的視頻在網上瘋傳。即使這是假的,但新聞機構和競選團隊花了幾個小時才證明這一點。有多少人會看到這段視頻并在最後一刻改變投票?這可能會改變比賽的結果,尤其是在選情膠着的情況下。
最近,Open AI 聯合創始人 Sam Altman 在美國參議院委員會作證時,來自兩黨的參議員都對人工智能對選舉和民主的影響有所關注。我希望這個話題能繼續引起每個人的關注。我們确實還沒有解決假信息和深度偽造的問題。但有兩點讓我保持謹慎樂觀。一是人們有能力學會不輕信一切。多年來,電子郵件用户常常上當受騙,因為有人冒充尼日利亞王子,承諾只要分享信用卡号碼就能獲得巨額回報。但最終,大多數人學會了對這些郵件進行二次審查。随着詐騙手段越來越高明,許多目标也變得越來越狡猾,我們需要為深度偽造建立同樣的防範意識。
另一件讓我充滿希望的事情是,AI 不僅可以創建深度偽造,還可以幫助識别它們。例如,英特爾開發了一種深度偽造檢測器,而政府機構 DARPA 正在研究如何識别視頻或音頻是否被篡改。
這将是一個循環過程:有人找到了檢測造假的方法,有人想出了對付它的辦法,有人開發出了反制措施,如此循環往復。這不會是一個完美的成功,但我們也不會束手無策。
人工智能使得人類和政府發動攻擊變得更加容易
如今,當黑客們想找到軟體中的漏洞時,他們會通過暴力編寫代碼,對潛在的弱點進行攻擊,直到發現漏洞為止。這需要走很多彎路,因此需要時間和耐心。
想要打擊黑客的安全專家也必須做同樣的事情。你在手機或筆記型電腦上安裝的每一個軟體補丁,都代表着善意或惡意的人花費了許多時間的搜尋。
人工智能模型将通過幫助黑客編寫更有效的代碼來加速這一進程。他們還将能夠利用個人的公共信息,如工作的地方和他們的朋友是誰,來開發出比我們現在看到的更先進的網絡釣魚攻擊。
好消息是,人工智能既可用于惡意目的,也可以用于良好的目的。政府和私營部門的安全團隊需要擁有最新的工具,以便在犯罪分子利用安全漏洞之前發現并修復它們。我希望軟體安全行業能夠擴大他們在這方面已經開展的工作,這應該是他們最關心的問題。
這也是為什麼我們不應該像某些人建議的那樣,試圖暫時阻止人們施行人工智能的新發展。網絡犯罪分子不會停止制造新工具,想要利用人工智能設計核武器和生物恐怖襲擊的人也不會停止,阻止他們也需要以同樣的速度繼續進行。
在全球層面也存在相關風險:AI 軍備競賽可用于設計和發動針對其他國家的網絡攻擊。每個國家的政府都希望擁有最強大的技術,以阻止對手的攻擊。這種 " 不讓任何人搶先 " 的動機可能會引發一場制造日益危險的網絡武器的競賽。這樣一來,每個人的處境都會變得更糟。
這是一個可怕的想法,但我們有史為鑑。盡管世界核武器防擴散機制存在缺陷,但它阻止了我們這一代人在成長過程中非常害怕的全面核戰争的發生。各國政府應考慮建立一個類似于國際原子能機構的全球人工智能機構。
人工智能将奪走人們的工作
未來幾年,人工智能對工作的主要影響将是幫助人們更高效地完成工作。無論是在工廠工作,還是在辦公室處理銷售電話和應付賬款,都将如此。最終,AI 在表達思想方面的技能将足夠好,以至于它能夠為你寫郵件并管理你的收件箱。你将能夠用簡單的英語或任何其他語言編寫一份請求,并生成一份内容豐富的工作報告。
正如我在正如我在 2 月份的文章中所説,生產力的提高對社會有益。這使得人們有更多的時間去做其他事情,無論是在工作中還是在家中。而且,對助人為樂者的需求永遠不會消失,例如教書育人、照顧病人和贍養老人。
但是,在我們向人工智能驅動的工作場所過渡的過程中,一些工人确實需要支持和再培訓。這是政府和企業的職責所在,他們需要很好地管理它,這樣工人們才不會被抛棄,避免像美國制造業工作崗位減少時發生的那種對人們生活的幹擾。
此外,請記住,這并不是新技術第一次導致勞動力市場發生重大變化。我認為人工智能的影響不會像工業革命那樣巨大,但肯定會像個人電腦的問世那樣巨大。文字處理應用軟體并沒有消除辦公室工作,但卻永遠地改變了辦公室工作。雇主和員工必須适應,他們也确實做到了。人工智能帶來的轉變将是一個崎岖的過渡,但我們完全有理由相信,我們能夠減少對人們生活和生計的幹擾。
人工智能繼承了我們的偏見并胡編亂造
幻覺,這是指人工智能自信地作出一些根本不真實的聲明,且通常發生的原因是機器不理解你的請求的背景。如果你讓一個人工智能寫一個關于去月球度假的短篇故事,它可能會給你一個非常富有想象力的答案。但是如果你讓它幫你規劃一次前往坦尚尼亞的旅行,它可能會試圖把你送到一個不存在的酒店。
人工智能的另一個風險是,它反映出甚至加劇了人們對某些性别身份、種族、民族等的現有偏見。
要明白為什麼產生這樣的幻覺和偏見,了解當前最常見的 AI 模型如何運作是非常重要的。它們本質上是非常復雜的代碼版本,可以讓您的電子郵件應用程式預測您要輸入的下一個單詞:在某些情況下,幾乎是網上所有可用的文本,它們掃描海量文本,然後進行分析,找出人類語言中的模式。
當你向人工智能提出一個問題時,它會查看您使用的單詞,然後搜索經常與這些單詞相關聯的文本。如果您寫下 " 列出煎餅的配料 ",它可能會注意到 " 面粉、糖、鹽、發酵粉、牛奶和雞蛋 " 這些詞經常與該短語一起出現。然後,根據它所知道的這些單詞通常出現的順序,它會生成一個答案(這種方式工作的 AI 模型使用的是所謂的轉換器,GPT-4 就是這樣一個模型)。
這個過程解釋了為什麼人工智能可能會產生幻覺或出現偏差,它對你提出的問題或告訴它的事情沒有任何上下文理解。如果你告訴它打錯了,它可能會説 " 對不起,我打錯了 "。但這只是幻覺,它并沒有打錯任何東西,它之所以這麼説,是因為它已經掃描了足夠多的文本,知道 " 對不起,我打錯了 " 是人們在被糾正後經常寫的一種句子。
同樣,AI 模型也會繼承它們所訓練的文本中固有的偏見。如果一個人讀了很多關于醫生的文章,而文章中大多提到男性醫生,那麼它的答案就會假定大多數醫生都是男性。
盡管一些研究人員認為幻覺是一個固有的問題,但我并不同意。我樂觀地認為,随着時間的推移,我們可以教會 AI 模型區分事實和虛構。例如,Open AI 在這方面做了很有前途的工作。
包括阿蘭 · 圖靈研究所和國家标準與技術研究所在内的其他組織正在解決偏見問題。一種方法是在 AI 中加入人類價值觀和更高層次的推理。這類似于有自我意識的人類的工作方式:也許你認為大多數醫生都是男性,但你對這一假設有足夠的意識,知道你必須有意識地與之鬥争。人工智能也可以以類似的方式運行,尤其是如果模型是由來自不同背景的人設計的。
最後,每個使用人工智能的人都需要意識到偏見問題,并成為一個知情的用户。你要求人工智能起草的論文可能會充滿偏見,就如同充滿了事實錯誤一樣。你需要檢查你的 AI 的偏見,以及你自己的偏見。
學生不會學習寫作,因為 AI 會替他們完成寫作
許多教師擔心 AI 會破壞他們與學生的工作。在一個只要能上網,任何人都能用人工智能寫出可圈可點的論文初稿的時代,有什麼能阻止學生将其作為自己的作品上交呢?
已經有一些 AI 工具在學習判斷一篇文章是由人類還是電腦寫的,所以教師們可以知道他們的學生是否在做自己的作業。但是有些教師并沒有試圖阻止他們的學生在寫作中使用 AI,他們實際上是在鼓勵它。
今年 1 月,一位名叫切麗 · 希爾茲(Cherie Shields)的資深英語教師在《教育周刊》(Education Week)上發表了一篇文章。 的文章上發表了一篇文章,介紹了她如何在課堂上使用 Chat GPT。Chat GPT 幫助她的學生從開始寫一篇作文到攥寫大綱,甚至給他們的作業提供反饋。
她寫道:" 教師必須接受人工智能技術,将其作為學生可以使用的另一種工具。就像我們曾經教學生如何進行正确的谷歌搜索一樣,教師應該圍繞 Chat GPT 機器人如何協助論文寫作設計清晰的課程,承認人工智能的存在并幫助學生使用它可以徹底改變我們的教學方式。" 并非每位教師都有時間學習和使用新工具,但像 Cherie Shields 這樣的教育工作者提出了一個很好的論點,即那些有時間的教師将受益匪淺。
這讓我想起了上世紀七八十年代電子計算器普及的時代。一些數學教師擔心學生會停止學習基本算術,但另一些教師則接受了這項新技術,并将重點放在算術背後的思維能力上。
人工智能還可以幫助寫作和批判性思維。特别是在早期,當幻覺和偏見仍然是一個問題時,教育工作者可以讓人工智能生成文章,然後與學生一起檢查事實。教育非營利組織如可汗學院和 OER 項目等為教師和學生提供免費的在線工具,這些工具非常重視對論斷的檢驗,沒有什麼技能比知道如何辨别真假更重要了。
我們确實需要确保教育軟體有助于縮小成績差距,而不是使其變得更糟。如今的軟體主要面向那些已經有學習動力的學生。它可以為你制定學習計劃,為你提供好的資源,并測試你的知識。但是,它還不知道如何吸引你去學習你還不感興趣的科目。這是開發人員需要解決的一個問題,以便讓所有類型的學生都能從人工智能中受益。
接下來要做什麼?
我相信,我們有更多的理由樂觀地認為,我們可以在管理人工智能風險的同時最大限度地發揮其效益,但我們需要快速行動。
各國政府需要積累人工智能方面的專業知識,以便制定應對這一新技術的法律法規。他們需要應對錯誤信息和深度偽造、安全威脅、就業市場的變化以及對教育的影響。僅舉一例:法律需要明确哪些用途的深度偽造是合法的,以及應該如何标注深度偽造,以便每個人都能明白他們看到或聽到的東西是假的。
政治領導人需要具備與選民進行知情的、深思熟慮的對話的能力。他們還需要決定在這些問題上與其他國家合作的程度,而不是單打獨鬥。
在私營部門,AI 公司需要在安全和負責任的前提下進行他們的工作。這包括保護人們的隐私,确保他們的人工智能模型反映人類的基本價值觀,最大限度地減少偏見,讓盡可能多的人受益,并防止技術被犯罪分子或恐怖分子利用。許多經濟領網域的公司都需要幫助其員工過渡到以 AI 為中心的工作場所,這樣就不會有人掉隊。而且,客户應始終知道他們是在與人工智能還是人類互動。
最後,我鼓勵大家盡可能關注人工智能的發展。這是我們有生之年将看到的最具變革性的創新,健康的公共辯論将取決于每個人對這項技術本身、優點和風險的了解。人工智能将帶來巨大的利益,而相信我們能夠控制風險的最好理由就是我們曾經能夠做到了。