今天小編分享的社會經驗:“AI張文宏”開始深夜帶貨?老人信以為真,已有多人上當受騙,歡迎閱讀。
什麼?" 張文宏 " 開始帶貨了?
最近有網友向媒體發來一段視頻詢問 " 張文宏是不是帶貨了?" 還在賣一種蛋白棒,家裡的老人信以為真已經下單,還轉發了很多群。
該視頻系 AI 合成
記者核實發現,這個賬号名為" 般畫 234"。在視頻中," 張文宏 " 反復介紹一種產品,口型是他的,聲音也是他的。
但稍微懂點 AI 的小夥伴們一眼就能分辨,這是 AI 合成的視頻!但是老年人哪裡懂甄别啊?
記者發現,這段視頻已在該賬号内不可見。但商品櫥窗内還保留着蛋白棒售賣的頁面,并顯示已售出 1266 件。
新民晚報記者晏秋秋評論,現在的科技,只要有一段張文宏正常說話的視頻,再把你想要他說的話輸入,AI 一處理就能自動生成帶貨視頻。不法賬号趁着深夜把這種帶貨視頻放出,到了早上再把視頻屏蔽掉。這樣買的人就投訴無門,而且也不太容易被發現。
這麼做毫無疑問,就是在犯罪!賣掉這幾百單,可能要坐牢幾年,這樣的賬号也存活不了多久,平台會第一時間封禁賬号、封存資金。
類似案例
" 假靳東 "騙老人上當
今年 11 月,江西一位老人來到銀行辦理銀行卡,但手續不全又不肯離開,警方到現場後,老人表示要到銀行貸款 200 萬元給自己的男朋友 " 靳東 " 拍戲。
" 我是在短視頻平台上認識的‘靳東’,‘靳東’向我表白了,并用兩人合照發布了短視頻,現在他拍戲需要 200 萬元,我要去幫助他。"老人略顯激動在說道。
民警随即拿起老人的手機進行查看,發現老人所謂的大明星 " 靳東 " 是騙子冒充的,其所發布的視頻也是由電腦 AI 合成,但老人對網絡知之甚少,對于騙子所說所做深信不疑。
民警向老人進行耐心勸導,通過展示網絡上一些冒充 " 靳東 " 詐騙的新聞和現場利用 AI 合成照片等方式,老人才醒悟過來。
如何辨别
螢幕裡是真人還是 AI 合成人?
螞蟻集團天玑實驗室安全算法專家朱凱建議,通過遮擋結合 " 動起來 " 的方式,來識别到底是真人還是 " 數字人 "——比如,在摁鼻子或摁臉的同時左右搖晃頭部,這就是 " 動起來 " 的一種方式。目前很多 "AI 換臉 " 的基礎是被模仿者的照片,照片是平面的,所以生成的 " 數字人 " 以正面、平面為主。當人臉動起來時,會呈現出臉部的三維結構,算法只能基于平面的照片推測三維結構,按照現有的技術手段,推測結果大多不太理想,從而讓人發現漏洞。
此外,可以要求對方在臉部揮手、用手指比數字等。真人做這些動作時,臉部表情、手部動作都很自然;如果是 " 數字人 ",很可能出現問題。雖然現有的 AI 技術有能力生成臉部被部分遮擋的靜止畫面,但 " 揮手 "" 比數字 " 意味更多的動作,目前技術還沒辦法實時生成完美效果,從而出現破綻。
值得注意的是,以上鑑别方式都是基于現有算法的局限性。未來随着 AI 技術的發展," 動起來 "" 揮手 "" 比數字 " 等有可能難不倒新技術," 數字人 " 同樣能順利完成以上動作,從而更加具備迷惑性。所以,防範 AI 詐騙,還是要從自己出發,做好信息保護,提高警惕。
例如,不要洩露個人信息,尤其要注意影像、聲音、指紋等生物信息的保護。"AI 換臉 " 的數據基礎是被模仿人的照片、視頻等,個人公開在外的照片、視頻越多,意味着 AI 算法參考的數據越多,生成的 " 數字人 " 會更真實。
同時,在涉及資金交易等場景下,需要多留心眼,不輕易相信視頻、聲音。很多時候,傳統的識别方式要比技術識别更有效。例如,可以詢問對方只有當事人之間知道答案的問題、共同經歷的事情等。
(來源:新聞晨報)