今天小編分享的科技經驗:人類首部AI立法即将實行,能否解決AI帶來的“傷害”?,歡迎閱讀。
圖片由 AI 生成
歐洲議會于 2024 年 3 月 13 日批準通過了《人工智能法案》,會上 523 票贊成、46 票反對、49 票棄權。這标志着世界上首次全面規範人工智能的法律誕生,同時這也是世界上迄今為止最全面的人工智能立法。《人工智能法案》将于 5 月在歐盟國家中被正式批準,預計年内一些條款将開始适用。
《人工智能法案》涉及人權、產權以及主權三個領網域。據钛媒體 APP 觀察到,該法案内容主要可以歸納為七點。第一點是關于人工智能系統在歐盟的市場投放、服務以及使用的統一規則;第二點是規定對特定人工智能實踐的禁止;第三點是規定對高風險人工智能系統的具體要求以及相關經營者的義務;第四點是制定對特定人工智能系統的統一透明度規則;第五點是制定對人工智能模型在市場中的準則,也涉及到管理及創新發展。此外還通過設立 AI 辦公室以及人工智能管理委員會來加以管理,使得參與各國協調共同管理。
《人工智能法案》的發布對其他國家、組織的人工智能立法起到了借鑑和助推作用。IBM 近日表達了對歐盟《人工智能法案》的高度評價,他們稱歐盟《人工智能法案》提供了一個亟需的框架,以确保開發和部署人工智能技術過程中的透明度、問責制和人為監督。并且 IBM 表示相信該法規将促進人們對人工智能系統的信任和信心,同時促進創新和提高競争力。
《人工智能法案》的借鑑意義
首先,《人工智能法案》将人工智能系統風險分為不可接受的風險、高風險、有限風險和低風險四大類。法案采用基于風險的分級動态監管模式,并按照風險級别制定相應的監管規則,這保持了行業發展的相對平衡。
其次,通過設立人工智能監管沙盒有助于平衡監管與創新。法案表示監管沙盒向任何符合資格和選擇标準的人工智能系統的潛在申請者開放,并且進入監管沙盒的标準是透明和公平的。這一點在确保人工智能發展創新的同時,法案也能繼續注重保護人的基本權利及民主等免受高風險人工智能的影響。
此外,《人工智能法案》對跨國人工智能企業也進行了要求,規範了在政策管制程度的不同地區仍能遵循以人為本,進一步降級法律風險。
最後,立法本身就可以在民眾心底建立維權意識,這不僅可以帶動人工智能整體的健康發展,還能建立起公民對人工智能行業的信任。
《人工智能法案》能否降低當前主要的人工智能風險?
在人工智能高速發展、不斷迭代的現階段,由于監管不到位亦或是鑽法律空擋等,致使人工智能倫理事件頻發,甚至已經威脅到了人的生命安全。那麼作為人類首部人工智能相關立法的《人工智能法案》,能否減少甚至杜絕現階段社會面臨的人工智能事故呢?接下來将選取幾個較為經典的人工智能案例,結合《人工智能法案》說明。
(1)未經親屬授權,通過 AI 復活逝者
生成式 AI 現階段已融入到各行各業之中,該技術不光可以對產業賦能增加效率,還可以滿足人們的幻想與期盼。前不久,知名音樂人包小柏成功運用AI 技術 " 復活 "了已故兩年的女兒,在打造的 " 數字世界 " 不僅可以進行對話,還可以唱歌跳舞。這本來是積極的一面,代表了 AI 可以給予人們的正能量。然而,在這之後,越來越多的已故明星被 AI 技術 " 復活 ",重點是未經親屬授權,在家屬不了解的情況下将視頻推向短視頻平台。這些事件引起了廣泛熱議并且傷害了部分家屬和一些粉絲。利用 AI 技術 " 復活 " 可能是對已故之人的思念,也有可能是制造熱點,這一點無法考證。但是确定的是,這已經涉及到倫理風險中的社會性風險,即人工智能使用不合理,包括濫用、誤用等,對社會價值等方面產生負面影響的風險。那麼在《人工智能法案》中能否在開始就減少或杜絕此類現象呢。
《人工智能法案》中明确提到了将人工智能系統風險分級外,還提出了應被禁止的 8 種 AI 系統類型。其中就有禁止使用網絡或視頻監控進行無目标的人臉收集以創建人臉識别數據庫,這一點可以解決 AI" 復活 " 的底層邏輯,利用 AI" 復活 " 需要先用視頻或圖片抓取人物,并通過模型後續生成。此外,還禁止了根據人的弱點,達到 " 嚴重扭曲 " 某人的行為目的或效果,造成重大傷害的 AI 系統。這一點也能盡最大程度避免了利用人的性格弱點,來牟取私利的行為。
(2)通過 AI 在網絡平台抓取民眾心裡,引導不良走向,甚至幹預選舉
在 2016 年美國大選期間,劍橋數據公司通過大數據采集分析臉譜化以及定向推送等相關技術,從 FACEBOOK 平台上抓取大量用戶個人隐私,把生活在螢幕背後的人還原成一個毫無隐私可言的人。因此便有了針對性極強的精準信息投放,在個人不知不覺的時候在後台進行信息過濾,通過計算機建模對數據進行分析,對精确的對象釋放個性定制的信息,影響其心智和行為,從而赢得他們的選票。從這一問題上我們也看到該項技術衍生的其他問題,例如部分公司利用此技術引導貸款,亦或是引導至不良方向等。由此看出,不法分子利用 AI 技術在網絡平台引導民眾走向不良方向的問題是巨大的,衍生出的結果也是千變萬化的。
在《人工智能法案》中,全面禁止了部分 AI技術的一些 " 不可接受 " 的用途,例如禁止由人工智能驅動的社會評分系統,以及任何用于猜測一個人的種族、政治傾向或性取向的基于生物識别的工具。此外,還有此前我們提到的禁止操縱人類行為或利用人類弱點的 AI系統。最後,設立人工智能監管沙盒可以使得進入的企業運行是透明的,這将更有利于監管。
(3)人工智能應用到軍事,人道主義能否保障
2023 年 5 月,美國空軍上校漢密爾頓在 5 月舉行的未來戰争空天能力峰會上稱在一次模拟測試中,一架負責執行防空火力壓制 ( SEAD ) 任務的無人機,殺死了人類操作員。據他稱,因為無人機收到了識别并摧毀敵方防空導彈的指令,并且最終開火權在人類操作員的手上。但是由于這架無人機使用的 AI 系統在進行數據訓練時,得到了 " 摧毀敵方防空系統 " 為最高優先級。因此,當人類操作員發出不允許攻擊的指令時,AI 系統認為操作員是在阻擾它執行最優先級命令,進而選擇對自己的人類操作員發動了攻擊。雖然這是一次測試,但是不可否定的是在應用到軍事領網域中,人工智能能否與人類兼容。
除此外,利用人工智能技術對其他國家產生主權威脅,以及利用人工智能到軍事衝突中加大人員傷亡以及誤傷,這樣的情形或已經發生或将在未來更新。在《人工智能法案》中其說明了不規定于軍事。但是在我國 2021 年發布的《關于規範人工智能軍事應用的立場檔案》中,對于這些問題詳細的進行了倡議。
例如表明在軍事政策上,各國在發展先進武器裝備、提高正當國防能力的同時,應銘記人工智能的軍事應用不應成為發動戰争和追求霸權的工具,反對利用人工智能技術優勢危害他國主權和領土安全的行為。
在技術安全上,各國應不斷提升人工智能技術的安全性、可靠性和可控性,增強對人工智能技術的安全評估和管控能力,确保有關武器系統永遠處于人類控制之下,保障人類可随時中止其運行。
值得一提的是我國也積極表明 AI+ 軍事的過程上應該注意人道主義倫理問題,表明各國應确保新武器及其作戰手段符合國際人道主義法和其他适用的國際法,努力減少附帶傷亡、降低人員财產損失,避免相關武器系統的誤用惡用,以及由此引發的濫殺濫傷。
總體來看歐盟的《人工智能法案》不僅為其内部在人工智能領網域形成統一的規則和開發方向提供了法律基礎,而且在全球範圍内推行了人工智能的監管标準,從而掌握規則制定的主動權。随着《人工智能法案》的正式實行,如果嚴格按照法案,社會上的人工智能倫理問題将大大減少,但是在軍事主權上仍需世界各國共同努力。值得注意的是,本文列舉案例較少,主要挑選了一些經典案例,不能代表人工智能帶來的所有風險。(本文首發于钛媒體 APP,作者|谷碩,編輯|劉洋雪)