今天小編分享的科技經驗:微軟、OpenAI 阻止俄羅斯、朝鮮的黑客使用 AI 大模型,歡迎閱讀。
(圖片來源:The Verge)
随着 AI 技術迅速發展,黑客已經開始使用大模型來更新網絡攻擊技術。
钛媒體 App 2 月 15 日消息,美國科技巨頭微軟公司(Microsoft)昨夜在官網發布了一篇題為 " 在人工智能時代領先于威脅參與者 "(Staying ahead of threat actors in the age of AI)的研究文章。
微軟聲稱,他們與 OpenAI 團隊共同研究發現,俄羅斯、朝鮮、伊朗等多國的黑客組織正使用 ChatGPT 等生成式 AI 工具進行目标研究、改進腳本和幫助構建社交工程技巧,從而改進和完善現有的網絡攻擊技術。
" 網絡犯罪團體、國家威脅行為者和其他對手正在探索和測試不同的 AI 技術,試圖了解它們對操作的潛在價值,以及可能需要規避的安全控制。" 微軟在文章中稱。
微軟強調,AI 技術的進步使網絡安全和安全措施的需求增加。微軟要持續與 OpenAI 合作,不斷改進防御措施,識别、檢測和阻止黑客的潛在惡意使用或濫用,并保護客戶的數據安全。
據悉,自 2019 年微軟向 OpenAI 投資數十億美元之後,兩家公司開始密切合作。尤其當 ChatGPT 發布之後,微軟成為新一輪 AI 熱潮的重要受益者,該公司市值已超過蘋果公司,達 3.01 萬億美元,成為全球市值最高的科技公司。
微軟透露,其與 OpenAI 對于這項研究的合作目标是确保安全、負責任地使用 ChatGPT 等 AI 技術,堅持道德應用的最高标準,以保護用戶免受潛在的濫用。
作為研究的一部分,2023 年,微軟研發了一種叫 "Microsoft 威脅情報 " 產品,跟蹤 300 多個網絡攻擊行為者,涵蓋 160 個國家 / 地區的行動者、50 個勒索軟體組織等,每秒收集超過 7500 億個信号,使用復雜的數據分析和 AI 算法進行合成,以了解和防範網絡威脅和犯罪活動。
同時,截至 2023 年底,微軟招聘了全球超過 10000 名安全和威脅情報專家,包括工程師、研究人員、數據科學家、網絡安全專家、威脅搜尋者、分析師、調查員和一線響應人員等,有超過 1.5 萬個合作夥伴提供專業解決方案。在過去的 2023 年裡,微軟威脅情報平均每秒阻止 4000 個身份信息驗證的黑客入侵威脅,1.35 億台托管設備提供安全方法服務反饋。
此次微軟和 OpenAI 的研究當中,主要提到以下四個黑客組織利用 AI 模型技術對網絡攻擊進行改進和更新,認為這有可能會對國家造成一定威脅。
Forest Blizzard ( STRONTIUM ) ,這是與 GRU 26165 部隊有聯系的俄羅斯軍事情報技術(組織),威脅活動涉及國防、運輸 / 物流、政府、能源、非政府組織 ( NGO ) 和信息技術等多個領網域。研究發現,他們使用大模型(LLMs)" 了解衛星通信協定、雷達成像技術和特定技術參數 "。
Emerald Sleet ( THALLIUM ) ,這是一個來自朝鮮的黑客技術(團體),在 2023 年一直保持高度活躍。他們使用大模型公開的研究報告漏洞,針對相關信息幫助和起草網絡釣魚活動内容,包括冒充知名學術機構和非政府組織引誘受害者回復有關朝鮮外交政策的專家見解和評論等。
Crimson Sandstorm ( CURIUM ) 是一個來自伊朗的黑客組織,自 2017 年以來一直活躍在多個領網域,涉及包括國防、海運、交通、醫療保健和技術。微軟稱,他們使用大模型生成網絡釣魚郵件甚至用于規避防病毒軟體檢測的代碼。
Charcoal Typhoon ( CHROMIUM ) ,其組織也利用模型進行研究、腳本編寫、翻譯和改進現有工具。
具體到案例當中,微軟透露,有些黑客使用 " 聲音模仿 " 等方式,讓 AI 進行語音合成,三秒鍾的聲音樣本可以訓練一個聽起來像人的模型,從而攻擊和惡意騙取用戶重要隐私信息," 甚至你的聲音郵件問候語也可以被用來獲取足夠的采樣。"
事實上,随着 ChatGPT 等多個文字、音視頻等多模态 AI 模型工具的出現,除了幫助更多人提升生產力之外,它還被一些不法分子創建惡意郵件、破解工具,利用 AI 技術進行網絡攻擊。美國國家安全局的官員曾警告稱,黑客正在使用 AI 使他們的網絡釣魚郵件看起來更可信。
不過,OpenAI 也強調,其發現 GPT 模型僅為黑客組織提供 " 有限的增量 " 功能。微軟則強調,他們尚未檢測到使用大模型進行任何 " 重大攻擊 " 的方案。目前,微軟和 OpenAI 已經将相關黑客團體的賬戶和資產進行了關閉或凍結。
事實上,最近關于 AI 技術的詐騙案例呈現上升趨勢。
今年 2 月初,香港警方披露當地一公司财務職員遭遇 DeepFake(深度偽造技術)詐騙,對方聲稱要進行機密交易,邀請參與多人視頻會議,最終接受假冒首席财務官(CFO)指示,當事人分 15 次匯款了 2 億港元,轉賬至 5 個本地賬戶。而當事人 5 天後向總公司求證,才發現被騙,并向警方報案。
據不完全統計,2020-2022 年,國内 AI 詐騙案件數量共計 5 起,2023 年全年 AI 詐騙案件增長到 16 起;同時,個案金額方面,用 AI 詐騙的涉案金額從 2020 年的最少 3000 元,到 2023 年達到 430 萬元。而香港警方此次披露的這起詐騙案,涉案金額提升至 2 億港元(約合人民币 1.82 億元)。
那麼,我們如何防範并解決 AI 詐騙問題?
微軟主要總結了兩個方面:一是該公司使用 AI 來應對 AI 攻擊,比如讓防護牆(網絡攻擊)技術更加復雜,用 AI 加強信息保護、檢測和反饋;二是通過 " 微軟 Security Copilot" 等的基于 AI 的網絡安全工具,檢測和幫助用戶識别漏洞,最終用軟體方式阻擋黑客攻擊。
多位國内安全方面專家曾總結了四個方法:首先,用戶可以在視頻時可有意識地引導對方做一些動作,如大幅度的搖頭或張嘴,以此發現對方面部邊緣或者牙齒的瑕疵;同時,你可以問幾個只有你們二人知道的私密信息,來核實對方身份;再次,盡量避免在公開平台大量曬自己或家人的照片和視頻,給不法分子提供便利;最後,及時更新和安裝安全軟體,進一步加強源頭的網絡安全管控。
" 我們認為這是一項重要的研究,以揭露黑客組織試圖通過 AI 進行早期、漸進的行動,并與客戶分享我們如何阻止和反擊他們的網絡攻擊。" 微軟表示,未來将進一步增強 AI 大模型技術能力,從而幫助他們利用模型收集有關技術和潛在漏洞情報、尋找規避網絡攻擊的方法等。
(本文首發钛媒體 App,作者|林志佳)