今天小编分享的科技经验:谷歌新模型能识别人类情绪了!但不少人开始担心,欢迎阅读。
编译 | 汪越
编辑 | 漠影
智东西 12 月 6 日消息,据 TechCrunch 报道,谷歌昨日发布了新一代 AI 模型 PaliGemma 2,并宣称该模型具有情感识别的能力。谷歌表示,PaliGemma 2 不仅能够分析影像并生成详细的图片描述,还能识别影像中人物的情感状态。
据 TechCrunch 报道,要实现这一情感识别技术,PaliGemma 2 需要进行进一步的微调。即便如此,这项技术仍然引起了专家们的广泛关注与担忧。
多年来,初创公司和科技巨头纷纷尝试开发可检测情感的 AI 技术,以应用于销售培训、预防事故等领網域。谷歌表示,PaliGemma 2 已进行广泛测试,评估了该模型在人群偏见方面的表现,并声称该模型在 " 毒性和粗俗程度 " 方面优于行业基准。
然而,谷歌并未公开其所使用的完整测试基准,也未明确披露具体的测试类型。唯一公开的基准是 FairFace,一个包含数万张人头照的数据集。谷歌称 PaliGemma 2 在该基准测试中的表现良好,但一些研究人员对 FairFace 作为偏见衡量标准提出了质疑,指出该数据集仅代表少数几个人种。
情感识别技术普遍面临不可靠性和偏见的问题。以面部分析为例,2020 年 MIT 的研究表明,现有的面部分析系统往往偏好某些面部表情(如微笑)。最新研究还发现,部分情感分析模型倾向于将黑人面部的情感解读为负面情感,而对白人面部则较为正面。
对于谷歌公开发布 PaliGemma 2,专家们主要关注其潜在的滥用风险。情感识别 AI 若应用于执法、招聘、边境管理等高风险领網域,可能导致对边缘群体的歧视,甚至使人们的情感状态被错误解读,从而引发不公平待遇。
针对外界的担忧,谷歌回应称,已对 PaliGemma 2 的伦理性和安全性进行了全面评估,涵盖了儿童安全、内容安全等多个方面。谷歌发言人说,公司在发布 PaliGemma 2 之前已进行了严格的测试,并承诺对模型的 " 代表性危害 " 进行了充分评估。
结语:谷歌需平衡情感识别 AI 技术发展
目前,情感识别 AI 的局限性依然明显,无法全面解决情感表达的复杂性。单纯的测试和评估无法完全消除该技术潜在的问题。
谷歌的 PaliGemma 2 在影像分析和情感识别方面展示了技术创新,但负责任的创新应当从产品开发初期就全面考虑其可能带来的社会影响,并在整个产品生命周期内持续进行评估。
这让人联想到士郎正宗创作的动画《心理测量者》(Psycho-Pass)。这部作品设定在一个未来社会,政府通过 " 心理测量 " 技术监控市民的心理状态和犯罪倾向,以预测并干预可能的犯罪行为。警察配备了一种名为 " 执法者 " 的设备,用于实时分析个人的心理状况;一旦系统检测到高犯罪风险,便会依据个体的心理波动采取行动,包括麻醉或更极端的措施。
随着 AI 技术的发展,这样的科幻场景正逐渐接近现实。如何防止技术滥用,确保其公正性和可靠性,已成为 AI 行业亟需解决的核心问题。
来源:TechCrunch