今天小編分享的财經經驗:擁抱AI的B面,它讓詐騙變得更高級,歡迎閱讀。
圖片來源:圖蟲創意
童書作家兩色風景在過年時經常接到一個電話,電話裡的女聲一開始會假裝自己沒聽清,連叫幾聲 " 喂?喂?" 然後用一種難以置信的、欣慰的語調:哎!您的電話可算是接通啦,是這樣的,您有一筆錢即将到賬,數額是……
如果以前的 AI 詐騙電話一聽就是僵硬的、套路固定的機器人,那麼現在 AI 合成的電話,則是有視頻、有聲音、語調有情感,能根據實時對話内容來調整多輪對話的反饋。
今年 2 月,香港一家跨國公司員工,被騙子邀請進了用 Deepfake 做的 " 高管視頻會議 " 中,下令讓他轉了 2 億港币到不知名中賬戶,5 天之後才發現被騙了——之前會議中的高管的形象,是根據 YouTube 上這些高管公開的視頻資料,用 Deepfake 偽造的。
AI 技術的發展,既便利了我們,又為一些犯罪分子提供了新的手段。
ChatGPT+Sora 的王炸組合可能被利用
Deepfake 深度偽造技術并不新鮮,它是指 " 生成式對抗網絡 "(GAN)的機器學習模型将圖片或視頻合并疊加到源圖片或視頻上,借助神經網絡技術進行大樣本學習,将個人的聲音、面部表情及身體動作拼接合成虛假内容的人工智能技術。
但近兩年飛速發展的大語言模型,規模龐大,包含數十億的參數,使 AI 從量變到質變。大模型的發展對 Deepfake 深偽技術有推動嗎?
會的。算法與模型的改進,都讓 Deepfake 更加仿真。
在四川工作的信息安全工程師林泉(化名)表示:" 算法方面,比如說以前要訓練一百萬(虛指)張圖片才能達到某種效果,現在通過算法的精進,一千張圖片就能達到同樣的效果。另一方面是模型本身的提升,比如以前用一百萬張圖來訓練模型,現在訓練更精細,用一千萬張圖片來訓練模型,效果肯定會更好。"
而今年 2 月由 OpenAI 發布的文生視頻模型 Sora,能生成長達 1 分鍾的多鏡頭長視頻,其高清畫質、多角度運鏡對于視頻生成領網域是劃時代的。
人工智能自媒體 " 超級頭腦 " 博主張澤偉目前在用 AI 為一些客戶定制虛拟數字人,或者定制親人形象的視頻電話。他表示,像 Sora、Runway 這樣的視頻生成模型,能使數字人形象不僅像以往一樣出現在單一背景中,而是能出現在多種不同的背景中,甚至背景可以移動起來。這樣加強了 AI 視頻電話的仿真度。
但這樣的技術若被不法分子用于詐騙,危害也将更大。林泉表示,AI 視頻電話中讓人物形象在不同背景中運動的技術早已有之,但以前的模型生成的視頻長度比較短,Sora 的厲害之處在于視頻生成長度達到一分鍾,增加了視頻的連貫性," 它可以模仿一個人走在路上拿着手機打視頻電話。"
林泉提出,ChatGPT(文字聊天機器人)+Sora(文生視頻模型)的組合,有可能被利用生成危害更大的詐騙手段——詐騙者可能先用 ChatGPT 跟客戶聊天,再根據聊天内容用 Sora 實時生成視頻畫面。
在 ChatGPT 推出兩個月後,2023 年 2 月,網絡安全公司 Check Point 就發現網絡犯罪分子已繞過 ChatGPT 的防護措施來生成惡意軟體。 Check Point 研究人員在對暗網論壇進行了監控,發現黑客在讨論如何使用聊天機器人 " 改進 " 惡意軟體代碼,包括一些幾乎沒有編程經驗的 " 腳本小子 " 正在使用 ChatGPT 編寫可用于間諜、勒索軟體、惡意垃圾郵件和其他用于不法活動的軟體和電子郵件。
AI 也只是一種工具
曾經,講方言是識破詐騙電話的一種手段。一起去年發生的電話詐騙案例中,當事人親子之間約定講方言來确認對方确實是親人。
但是,用 AI 合成的方言語音詐騙電話也越發頻繁。在微博上,今年 2 月底,多名廣東地區的用戶表示接到了模拟親人聲音的電話,要求轉賬。一名網友表示,電話那頭是用粵語方言講的," 即使意識到是詐騙,但是聲音太像了 "。
網友遇到的方言詐騙電話。圖片來源:微博
" 方言詐騙其實很簡單。" 林泉就解釋說。
如果要詐騙一個人,最容易拿到手的就是電話号碼,電話号碼有地區顯示。打過去後,詐騙分子即使發現對方講的地區語言不符合預期,直接挂掉電話就行,幾乎沒有成本。
林泉介紹到,接下來就是普通的電話詐騙方式了:用戶若點擊某些非法鏈接、安裝某些非法程式,内含病毒,病毒在手機内植入應用,竊取通訊錄信息,獲得麥克風授權。當這個用戶每次講話,病毒應用會通過麥克風收集語音數據," 然後在你手機裡,不知道哪裡的目錄裡,生成一個音頻檔案。"
病毒軟體再用這些竊取的音頻數據,來訓練語音機器人或 AI 虛拟人。因為病毒應用竊取了受害者的通訊錄,裡面很可能有叫‘媽媽’的聯系人,詐騙者就很容易打電話給其父母,再用 AI 偽裝成孩子的聲音,編一個理由,要求轉賬。
更危險的詐騙形式是黃賭毒,黃賭毒的騙局一直設定得精致嚴密,AI 只是讓整個系統運轉更高效、以假亂真。
黃賭毒詐騙的危險在于,個人信息上傳、賭局輸赢數據、賭局流程推動、直播畫面、聊天互動全部都在詐騙網站或軟體上進行,形成閉環,受害者的全流程金融信息被詐騙分子掌控,受害者在賭博平台上看到的一切數據與畫面也是詐騙分子人為操控的。
相比之下,打電話冒充親人、要求轉賬的詐騙形式太低級了——這需要挨個打電話來嘗試。林泉表示,更高級的套路是,"(詐騙分子)在自己的平台裡面,讓你往裡面充值來賭博,讓你把身份證、銀行卡都上傳了,你的一切信息都進入别人的平台了。"
圖片來源:視覺中國
而在這些黃賭毒詐騙中,林泉表示,可能利用 AI 技術的環節有兩個:一是美女荷官的影像合成;二是用 AI 實現自動發牌。
還能用 AI 實現自動發牌," 這個發牌程式要定制的,比如說,讓你赢 3 局、輸 1 盤,再赢 5 盤、又連輸 10 盤,你只要上鉤,最後總共 10 盤裡,你只要輸上一盤,詐騙者都能賺。你參與得越深,詐騙者等到賺得差不多了,你也沒錢了,美女荷官就不理你了,聊天機器就把你拉黑。" 設計好程式,等到客戶投入金額大于某個數值,程式就自動把客戶拉黑(使客戶無法追回欠款)。
林泉作為信息安全工程師對這些黃賭毒騙局進行脫庫時,也感到驚奇:" 一個黃賭毒詐騙的 APP,剛發布一兩個月,裡面就有上千萬的資金流動,上萬人活躍。"
林泉也提出警告,詐騙行為的本質是由金錢驅動的,只要有利益可圖,就永遠有一批技術高超的詐騙分子想要利用技術去牟利,跟是不是 AI 沒有太大關系,AI 并沒有讓詐騙率提高。"AI 和詐騙有相關性,但沒有因果性。"
跟電話、互聯網一樣,AI 也只是一個中性的工具,它既可以被有效利用于我們日常的生產生活,也能被犯罪分子用于詐騙。但并不能因此就飲鸩止渴,還是要想辦法在發展中解決 AI 發展帶來的問題。