今天小編分享的科技經驗:谷歌新模型能識别人類情緒了!但不少人開始擔心,歡迎閲讀。
編譯 | 汪越
編輯 | 漠影
智東西 12 月 6 日消息,據 TechCrunch 報道,谷歌昨日發布了新一代 AI 模型 PaliGemma 2,并宣稱該模型具有情感識别的能力。谷歌表示,PaliGemma 2 不僅能夠分析影像并生成詳細的圖片描述,還能識别影像中人物的情感狀态。
據 TechCrunch 報道,要實現這一情感識别技術,PaliGemma 2 需要進行進一步的微調。即便如此,這項技術仍然引起了專家們的廣泛關注與擔憂。
多年來,初創公司和科技巨頭紛紛嘗試開發可檢測情感的 AI 技術,以應用于銷售培訓、預防事故等領網域。谷歌表示,PaliGemma 2 已進行廣泛測試,評估了該模型在人群偏見方面的表現,并聲稱該模型在 " 毒性和粗俗程度 " 方面優于行業基準。
然而,谷歌并未公開其所使用的完整測試基準,也未明确披露具體的測試類型。唯一公開的基準是 FairFace,一個包含數萬張人頭照的數據集。谷歌稱 PaliGemma 2 在該基準測試中的表現良好,但一些研究人員對 FairFace 作為偏見衡量标準提出了質疑,指出該數據集僅代表少數幾個人種。
情感識别技術普遍面臨不可靠性和偏見的問題。以面部分析為例,2020 年 MIT 的研究表明,現有的面部分析系統往往偏好某些面部表情(如微笑)。最新研究還發現,部分情感分析模型傾向于将黑人面部的情感解讀為負面情感,而對白人面部則較為正面。
對于谷歌公開發布 PaliGemma 2,專家們主要關注其潛在的濫用風險。情感識别 AI 若應用于執法、招聘、邊境管理等高風險領網域,可能導致對邊緣群體的歧視,甚至使人們的情感狀态被錯誤解讀,從而引發不公平待遇。
針對外界的擔憂,谷歌回應稱,已對 PaliGemma 2 的倫理性和安全性進行了全面評估,涵蓋了兒童安全、内容安全等多個方面。谷歌發言人説,公司在發布 PaliGemma 2 之前已進行了嚴格的測試,并承諾對模型的 " 代表性危害 " 進行了充分評估。
結語:谷歌需平衡情感識别 AI 技術發展
目前,情感識别 AI 的局限性依然明顯,無法全面解決情感表達的復雜性。單純的測試和評估無法完全消除該技術潛在的問題。
谷歌的 PaliGemma 2 在影像分析和情感識别方面展示了技術創新,但負責任的創新應當從產品開發初期就全面考慮其可能帶來的社會影響,并在整個產品生命周期内持續進行評估。
這讓人聯想到士郎正宗創作的動畫《心理測量者》(Psycho-Pass)。這部作品設定在一個未來社會,政府通過 " 心理測量 " 技術監控市民的心理狀态和犯罪傾向,以預測并幹預可能的犯罪行為。警察配備了一種名為 " 執法者 " 的設備,用于實時分析個人的心理狀況;一旦系統檢測到高犯罪風險,便會依據個體的心理波動采取行動,包括麻醉或更極端的措施。
随着 AI 技術的發展,這樣的科幻場景正逐漸接近現實。如何防止技術濫用,确保其公正性和可靠性,已成為 AI 行業亟需解決的核心問題。
來源:TechCrunch