今天小编分享的互联网经验:OpenAI悄悄下架AI检测器,“用AI监管AI”暂不奏效,欢迎阅读。
作者 | 黄金琼
编辑 | 邓咏仪
常言道," 一物降一物 ",但对现在的生成式 AI 来说,事情也许很难如此。
据 TechCrunch,OpenAI 于 7 月 20 日悄悄下架了其 AI 检测器,但因为过于低调,不少人还没有发现。
OpenAI 的通知显示,下架是因为检测的准确率过低。OpenAI 团队 " 会继续研究更有效的文本技术 ",希望未来能够对 AI 生成的音频、视频内容进行检测。
ChatGPT 爆火以来,AI 生成文本在各行各业得到了更广泛的应用。但比起广泛应用,AI 生成内容引发了人们更大的担忧—— AI 或许会成为更大的假新闻源头、泄露人们数据和隐私。
AI 生成内容引发的现实问题也不绝于耳——典型案例是是在大学里,学生们用 ChatGPT 生成论文,已经扰乱了学校的教学秩序,不少学校已经明令禁止在学术场景下使用 ChatGPT。
面对汹涌的舆论,OpenAI 在今年 2 月就迅速推出应对方案,也就是这款 AI 文本检测器。
AI 文本检测器的主要功能,是用来判断文本是否由人工智能生成。此前,在检测过程中,用户无需付费,只要将所检测的文本复制到检测器上,就可以检查到内容是否为 AI 生成。OpenAI 也没有限定可以检测的文本限定类型,用户可以检测包括邮件、文章以及论文在内的檔案。
然而直到下架,这款产品寿命只有短短半年。
AI 文本检测器其实一开始就并不完美。据 OpenAI 公布的数据,AI 检测器在识别 AI 生成文本方面的正确率为 26%,同时将人类所写的内容识别为 AI 生成的错误率为 9%。
在发布检测器时,OpenAI 就表明 "AI 文本检测器并不完全可靠 "。同时,OpenAI 团队也承认,检测器很容易将人类写的文本识别为 AI 写的,AI 生成的文本性内容如果经过人类编辑,AI 也无法进行准确地识别。
OpenAI 已经大模型应用中的技术领头羊。如今 AI 检测器的下架,某种程度上也意味着,人们现在可能还没有更好的方式监管 AI。" 用 AI 监管 AI" 的路子,可能还不太能走通。
近期的一则斯坦福研究,也得出了同样的结论。
数位斯坦福的专家教授对目前主流的七款 AI 文本检测器进行了测试,研究结果显示,一些检测器生成的 99% 的准确率具有 " 误导性 "。非英语母语的人写的文章,常被错误地标识为由 AI 生成,这会严重影响母语非英语的使用者如学生、学者以及求职者,也会很容易增加他们被歧视的可能性。