今天小編分享的互聯網經驗:“閃光燈”下的我們,歡迎閲讀。
人工智能最重要的核心要素是什麼?是數據和算法,尤其是數據,這是一切模型、算法的底層邏輯。不光是人工智能,各個行業中數據都是一種剛性需求,而人工智能對數據的需求程度與依賴性是其他行業無法比拟的,數據伴随人工智能技術、行業發展的每一個角落。
數據不僅僅包括由文字與數字組成的信息,照片、視頻等一樣可以作為數據應用于模型的學習、訓練。在使用大數據的過程中,數據的獲取、存儲、傳輸以及數據使用等始終無法做到合理、合規。各國對數據治理也陸續出台了法律法規,例如我國自 2021 年 9 月 1 日起施行的《中華人民共和國數據安全法》、歐盟議會于 2022 年 4 月 6 日通過的《數據治理法案》以及 2022 年 6 月 3 日美國眾議院通過的《美國數據隐私和保護法》等。
雖然相關的治理政策不斷出爐,但是對于 " 被動 " 接受自身信息、隐私數據等被利用甚至轉賣的事件仍屢見不鮮,這對人工智能倫理造成了極大的挑戰。個人信息、隐私等無法得到安全保護,使我們就像被放置在舞台中央,三百六十度的相機對準自身,無死角地按下快門。同時如被不法分子進一步利用,人們不止隐私權、名譽權受到侵犯,還會蔓延至财產甚至人身安全,這就是人工智能倫理風險中的侵權性風險。
例如 2023 年 3 月 28 日,《女子地鐵照被 AI 一鍵脱衣傳播》的新聞登上微博熱搜,事實上,照片的女主角是小紅書的一名博主,而所謂的 " 裸照 " 則是她去年 7 月在平台分享的一張照片。原圖中她衣着正常,完全沒有任何不妥之處,但卻被有心之人用 AI 軟體一鍵脱衣,故意全網散播。這不止對該女子進行了身心方面的傷害,甚至對其事業也造成了沉重打擊。
人工智能侵權性風險短期無法全部避免,這主要是因為人工智能整體發展還未成熟,政策的治理、行業的自律、人們的認知等都還需要一個過程才能完成完成蜕變,這是一個長期的過程。在這個過程中湧現出很多人工智能侵權性風險事件,比較經典的就是 2023 年 6 月 28 日chatgbt 由于出賣個人隐私,被起訴賠償 30 億美元。
2023 年 6 月 28 日,位于北加州的 Clarkson 律所代表 16 位匿名人士以及數以億計的 ChatGPT 用户、ChatGPT API 用户、ChatGPT plus 用户、微軟用户在加州北部地區巡回法院向OpenAI 和微軟提起集體訴訟,指控其在利益的驅使下,未經用户知情同意或用户不知情的情況下,使用從數億互聯網用户(包括各個年齡段的兒童)抓取的私人信息(包括個人身份信息)來創建其人工智能產品,嚴重侵犯了用户的财產權、隐私權等權益,給社會帶來了潛在的災難性風險,要求賠償 30 億美金。
關于被告的行為侵犯财產和隐私權部分,原告認為被告在原告不知情的情況下對通信進行了大規模的截取,違反了個人的财產權和隐私權。這些截取行為沒有得到用户個人信息的同意,也沒有遵守網站的使用條款以及加利福尼亞州等其他州和聯邦的法律。被告将其截取的個人信息用于構建 AI 產品,并通過出售訪問權限的商業模式來謀取經濟利益。
盡管人工智能侵權性風險已經通過各式各樣的形式展現,但是最典型的便是幹預選舉,這也在 2019 年被奈飛(Netflix)做成紀錄片《隐私大盜》,也讓我們一起來看看人工智能技術如何被利用導致侵權蔓延至幹預選舉吧。
在美國大選期間,一家英國公司,劍橋數據公司,通過大數據采集分析臉譜化以及定向推送等相關技術,從FACEBOOK平台上抓取、盜用大量用户個人隐私,把生活在螢幕背後的人還原成一個毫無隐私可言的人。由于對個人進行了細節性的定位,這樣就可以進行針對性極強的精準信息投放,個人不知不覺的情況下被後台進行信息過濾,通過計算機建模對數據進行分析,描摹人物性格圖譜,劃分人性類型,在競選的搖擺州,對精确的對象釋放個性定制的信息,影響其心智和行為,從而赢得他們的選票。
劍橋數據公司除了在 2016 年為特朗普競選搖旗呐喊外,"英國脱歐 "也有它的身影,作為支持脱歐的一方,它利用社交媒體在用户不完全知情的前提下獲得個人信息,然後大數據分析,人物形象畫圖,建模,篩選信息,定向發送。
對于人工智能侵權性風險的倫理治理需要一個長期的過程,但是我們需要保持 " 迫在眉睫 " 的緊迫性和警惕之心,這不單單是為了給我們自己塑造一個 " 安全屋 ",保證我們的信息、隐私不被暴露,也是為了預防侵權性風險的進一步蔓延。
(本文首發钛媒體 APP,作者|谷碩,編輯|劉洋雪)
更多詳細内容請見《2023 全球人工智能倫理治理報告》,獲取方式如下: