今天小編分享的科技經驗:蘋果解釋放棄CSAM的原因,一切都要讓位隐私保護,歡迎閱讀。
從來都是教育用戶的蘋果,這一次居然被用戶 " 教育 " 了。日前有消息顯示,蘋果方面十分罕見地回應了一家名為 Heat Initiative 的兒童保護組織提出的問題,并且蘋果的用戶隐私和兒童安全總監 Erik Neuenschwander 在此次回應中也首次向外界透露了該公司放棄開發 iCloud CSAM(兒童色情和虐待)檢測工具的原因。
" 我們致力于打破使兒童易受其影響的脅迫和影響鏈,不過掃描每位用戶存儲的 iCloud 數據,會成為數據竊賊發現和利用創造新威脅的載體。而且這種方式會導致很多預期之外的嚴重後果,例如掃描一種類型的内容為批量監控打開了大門,并可能產生跨内容類型搜索其他加密消息傳遞系統的願望 ",Erik Neuenschwander 在解釋在去年年末蘋果毫無征兆下線 CSAM 檢測工具的理由時,這樣說到。
事實上,CSAM 檢測工具是此前蘋果方面在 2021 年秋季宣布,在 iOS 15 上 " 擴大兒童保護 " 政策的一部分,并計劃根據美國國家失蹤和受剝削兒童中心(NCMEC)資料庫中已知的信息,來掃描用戶的 iCloud 照片庫,以尋找匹配的内容和相關信息,來幫助加強對兒童安全和隐私的保護。然而這個項目一經公布就引發了巨大的争議,雖然外界認可蘋果保護兒童的初衷,卻極力反對具體的措施。
其實 CSAM 檢測工具的原理非常簡單,蘋果會根據 NCMEC 及其他兒童保護組織提供的 CSAM 影像,并根據算法來得出一組哈希值,再加密存儲到他們的伺服器上。同時用戶在将影像上傳到 iCloud 之後也會生成一組哈希值,蘋果則會對比兩組哈希值之間的差異,進而判斷用戶是否涉及侵犯兒童安全。
哈希值則是對檔案内容數據通過邏輯運算得到不可逆的唯一數據散列值,這也保證了用于互相校驗的 CSAM 影像和用戶影像的可靠性。并且為了保障相關技術的有效性,蘋果方面在進行哈希值對比時,會使用被稱為 " 私有集交集 "(PSI)的加密技術,該技術則允許将 CSAM 影像與用戶 iCloud 中的照片在不洩露除交集結果以外其他信息的前提下,計算出雙方的交集。
為了進一步提高用戶的接受度,蘋果為比對結果還設計了 " 阈值秘鑰分享 ",只有比對結果超出臨界值、設備才會自動回報,并授權給蘋果浏覽相關内容的權限。對此蘋果方面宣稱,CSAM 檢測工具擁有極高的準确度,可确保每年錯誤标記賬戶的概率低于萬億分之一。而且不同于谷歌、Meta 這一類掃描雲端伺服器存儲用戶數據的策略,蘋果的這一解決方案是完全在本地進行哈希值匹配。
但蘋果之所以做 CSAM 檢測工具的直接原因,則有些讓人啼笑皆非,卻又在情理之中。對于 Epic Games 與蘋果的訴訟,想必大家不會陌生,在這場圍繞 App Store 壟斷與否的訴訟中,Epic Games 的律師還收集了大量與 App Store 無關的證據。比如說,他們找到了蘋果反欺詐技術部門 "FEAR" 負責人 Eric Friedman 的一段工作聊天,其中就顯示," 我們(蘋果)是全世界最大的兒童色情内容分發平台。"
其實聯系上下文不難發現,Eric Friedman 這句充滿自嘲意味的表述背後,是蘋果出色的端到端加密體系,使得不法分子可以使用他們家的設備來逃避監管。因此有觀點認為,蘋果方面才要推出 CSAM 檢測工具來解決自己釀出的這一苦果。
可這又恰恰觸怒了一直以來支持蘋果隐私保護政策的用戶,因為 CSAM 檢測工具的存在與 "iPhone 絕無後門 "、蘋果重視用戶隐私安全的宣傳相悖,更顯得蘋果是在自己反對自己。
但此前無論是面對執法機構要求解鎖嫌犯 iPhone 時,寧願對簿公堂也絕不屈服的态度,還是 iPhone、iOS 本身設計的多重保護,業界獨樹一幟的用戶隐私保護一直都是蘋果旗下產品的核心競争力之一,更是有消費者選擇 iPhone 的重要原因,也是相信在當下隐私洩露泛濫之時,蘋果是為數不多真正為用戶考慮的企業。
所以蘋果此舉,幾乎就等于是将所有 iPhone 用戶都當作了是可能侵犯兒童的惡人來看待,自然也就會招致各種不滿了。
更為致命的是,蘋果承諾不浏覽圖片就能篩選出違法信息的說法也被研究人員證偽,此前英特爾實驗室的研究人員就發現,蘋果的 CSAM 檢測工具存在哈希衝突這一缺陷。由于通過哈希函數產生的哈希值是有限的,所以當輸入數據量達到一定的程度時,就會導致不同數據在經過哈希函數處理後產生相同的值,進而讓兩張毫無關系照片的哈希值吻合,也直接動搖了蘋果 CSAM 檢測技術的基礎。
再加上隔壁谷歌檢索 CSAM 時出現了 " 誤傷 " 無辜父親,讓後者直接社會性死亡的事件,蘋果最終在 2022 年末選擇下線 CSAM 檢測工具。
自 1959 年的《兒童權利宣言》以及 1989 年《兒童權利公約》在聯合國大會被批準以來,對于兒童的保護就成為了人類社會普遍的共識。但蘋果作為一家商業公司,它的核心使命是掙錢、是盈利,承擔保護兒童的社會責任也是為了樹立更好的品牌形象,而優良的品牌形象則是為賺錢服務。所以換而言之,在目前隐私保護能力構成了這家公司核心競争力的情況下,為了保護兒童而自毀長城顯然是不現實的事情。
只能說雖然蘋果的初心是好的,只是執行得不太理想。
【本文圖片來自網絡】