今天小編分享的社會經驗:當謠言插上AI的翅膀,信息安全不能袖手旁觀,歡迎閱讀。
2025 年,新一代人工智能從實驗室走進人世間。網上網下,人人都在談大模型、個個都在議黑科技,從 DeepSeek 應用到 " 杭州六小龍 " 的思考,AI 話題已經和柴米油鹽一起,成為尋常生活裡的日常。不過,AI 雖好,它也是一把 " 利刃 ",用好了快刀斬亂麻,用壞了也是傷筋又動骨。最基本的一個邏輯是:由于 AI 在進行深度學習與内容生成時,是基于現有的互聯網内容,若其獲取的信息存在問題,那麼,它生成的内容因此牽連。
水渾濁,源不清。我們不妨看幾個具體的案例:比如,近期網絡上流傳 " 覃悅晴于 2025 年 2 月 23 日被活埋 " 的謠言,并結合 AI 生成内容試圖渲染恐慌情緒,後經核查為假,網傳圖片為舊聞圖片。又比如,"80 後死亡率已超 70 後 " 的假消息引出 "AI 幻覺 " 問題,AI 生成内容的真實性、可靠性常存疑。據南都大數據研究院不完全統計,2024 年搜索熱度較高的 50 個國内 AI 風險相關輿情案例中,超 1/5 與 AI" 造謠 " 有關。
正本清源,才能渠清如許。2 月 21 日,中央網信辦發布 2025 年 " 清朗 " 系列專項行動整治重點。明确提出整治 AI 技術濫用亂象,突出 AI 技術管理和信息内容管理,強化生成合成内容标識,打擊借 AI 技術生成發布虛假信息、實施網絡水軍行為等問題,規範 AI 類應用網絡生态。虛假信息及網絡謠言在 AI 的加持之下,其殺傷力呈現出幾何級的變化。一個共識可能會越發清晰:生成式 AI 技術加劇了網絡謠言的欺騙性,權利受損的個體維權需投入大量時間與經濟資源,維權成本越來越高,治理謠言須法律與技術雙重幹預。
今天,全球人工智能技術發展已從科學家推動轉為研發應用推動。于是,一個怪圈日漸成型:網絡灰黑產等不斷給 AI" 投喂 " 大量虛假或劣質信息,而 " 迷信 "AI 的人則借助這個 " 超能生產工具 " 生產出大量不經考證的信息產品。這些謠言類的信息產品一旦貼上平台或者媒體的标籤,又深度 " 投喂 " 給 AI 的數據庫,最終,我們就深陷在謠言等虛假信息的繭房之中。學界頻頻提及的 "AI 幻覺 " 與 " 機器欺騙 ",指的就是 "AI 會胡亂拼湊或虛構一些事實,讓其生成的内容顯得合理、自洽 "。一方面是 AI 自己本身就有 " 胡編亂造 " 的 " 本事 ",另一方面是别有用心的人給 AI 塞進海量的網絡謠言,可想而知,這個怪圈的破壞力之于億萬網民來說,無人幸免、無可幸免。
AI 不是神仙,獨立思考不能躺平;AI 類謠言不是玩笑,公共治理不能旁觀。
AI 越是發展,數據真實越發要緊。換言之,被污染的真實信息在 AI 魔幻式 " 調教 " 之下,已然是觸及網絡信息安全的核心命題。當下,人工智能從感知向認知、從分析判斷式向生成式、從專用向通用轉變,進入快速發展的新階段。人工智能技術和應用迅猛發展,已經深入到經濟社會的方方面面。因此,确保内容的質量和真實性尤為重要。正因如此,兩件事情可謂當務之急:一是互聯網信息庫當為 AI 提供 " 清潔能源 ",尤其是作為主流媒體,要時刻注意避免内容輸出的導向風險,努力向互聯網注入大量權威、事實準确的内容,為 AI 提供豐富且優質的語料庫。二是監管部門須革新監管手段,提升監管力。" 第一責任人 " 的平台監管力度亟待進一步提升,持之以恒地打擊黑灰產賬号,嚴控 AI 生成内容對社區的影響。
機器永不眠,科技無止境。有人因 "AI 主播 ""AI 醫生 ""AI 公務員 ""AI 面試官 " 的上崗而倍感焦慮,但更多人深信人文關懷、復雜決策、價值判斷等領網域 " 人 " 的獨特力量。抛開科技倫理與未來暢想不說,要讓新一輪技術革命真正驅動世界的發展,我們不妨從 " 小處 " 做起:站在信息安全的高度,用行業自治與監管執法的雙向力量,盡責盡力地為 AI 信息庫激濁揚清、正本清源。