今天小編分享的科技經驗:張文宏“被AI帶貨”,監管如何跟上技術發展?,歡迎閲讀。
" 張文宏是不是帶貨了?" 最近,有網友稱在網絡賣貨視頻中看到知名醫生張文宏在售賣一種蛋白棒產品。不過,經常刷短視頻的朋友很快就能分辨出這是 AI 合成的視頻,并非本人。
随着人工智能技術的迅猛發展,AI 換臉已經能夠做到以假亂真。當 AI 技術被不當使用,用户該如何識破騙局?監管如何跟上技術發展?
01
張文宏回應 " 被 AI 帶貨 "
已多次投訴 但違規賬号屢禁不止
在帶貨視頻中,被合成的人像反復介紹一種產品,聲音聽起來很像張文宏本人。一些老人信以為真,不僅下了單,還呼朋引伴來購買。對此,張文宏回應稱,這樣的賣貨賬号不止一個,而且一直在變,他多次向平台投訴但屢禁不絕。
目前,用語音合成來模仿他人聲音,生成視頻的技術已經非常成熟,甚至僅用一張照片就能生成此類視頻。
工信部信息通信經濟專家委員會委員盤和林表示:"AI 技術冒充名人帶貨、詐騙越來越多,這裏的關鍵不在 AI,而是要及時處理利用 AI 冒充他人的内容發布者。冒名頂替、虛假宣傳、破壞名人肖像權、利用名人的公信力來牟利,這些行為會給名人帶來風險,也會成為詐騙分子的温床。"
工信部反詐工作專班專家李坤介紹,在網上,耳聽眼見不一定為實。" 拟聲 "" 換臉 " 等合成技術的一大特點是以假亂真,不法分子可以利用此類技術輕易偽裝成他人,并通過快速篩選目标人群、精準制定詐騙腳本。
" 不法分子通過各種公開渠道獲取受害人的個人肖像或視頻,然後利用 AI 技術對受害人面容特征進行學習,模仿眨眼、搖頭等動作,實現以假亂真的效果。" 李坤説。
雖然目前 AI" 換臉 " 和 " 仿聲 " 有一定的技術門檻和較高的實現成本,但如果被不法分子掌握,就可能在即時通信或者社交軟體上偽裝他人,開展詐騙活動。
02
如何識别 AI 換臉換聲?
據了解,AI 換臉主要使用深度合成技術。在我國,《互聯網信息服務深度合成管理規定》提出,要求深度合成衣務提供者對深度合成的内容添加顯式或隐式水印。
中國信通院人工智能所安全與元宇宙部專家陳文弢介紹,水印的本質就是提示公眾這個内容是由 AI 合成的,另一方面也是為了追溯來源。
專家提醒,用户可以學習一些小訣竅,來辨别 AI 換臉詐騙。比如,在進行視頻對話時,可以要求對方在臉部前面,通過揮手的方式識别實時偽造的視頻。這是因為在揮手的過程中會造成面部的數據幹擾,如果是偽造的人臉,會產生一定的抖動或閃現。
在點對點的溝通過程中,可以問一些只有對方知道的問題,以此來驗證對方的真實性。
但值得注意的是,以上鑑别方式都是基于現有算法的局限性。未來随着 AI 技術的發展,這類 AI 變臉技術有可能更具迷惑性。
03
監管如何跟上技術發展?
快速發展的 AI 技術帶來了相關信息的爆炸式增長,造成了 AI 信息甄别困難。因此,治理也應當提速,跟上技術發展的步伐。
工信部信息通信經濟專家委員會委員盤和林稱,目前受害人維權困難,一方面是由于缺少簡化訴訟的渠道,另一方面是平台在處理此類維權問題時,不配合、不積極。" 下一步,既要疏通當事人維權渠道,也應要求平台完善算法,及時發現問題視頻,增加平台監管内容的責任義務。"
中國互聯網協會研究中心副主任吳沈括表示:" 從治理角度來講,需要考慮整體的技術準入,包括良性技術解決方案的設計研發和選用。從社會組織管理角度來説,這對我們優化社會治理提出了新要求,在這個過程中,各種可信任的驗證機制建設成為非常緊迫的話題。"
此外,吳沈括認為每一個人都應該提高警惕,從自身出發,在日常生活中做好防範。
" 用户要提升辨别能力,比如視頻中某位公眾人物發表跟他的身份不相關,甚至完全偏離的言論内容時,就存在比較大的風險。同時,平台可以發布一些風險警示,讓用户尤其是老年人群體,更及時地警惕可能存在的違法行為。" 吳沈括説。
本文來源:中央廣電總台中國之聲
記者 / 孔穎