今天小编分享的科技经验:曝OpenAI爆款产品重大缺陷!捏造事实、瞎编药物,或殃及30000名医生,欢迎阅读。
编译 | 程茜
编辑 | 心缘
智东西 10 月 28 日报道,OpenAI 的 AI 转录工具 Whisper 被曝出,在文本转录和翻译时会出现整句幻觉!
外媒美联社采访了十几位工程师、开发人员和学术研究人员发现,OpenAI 的 AI 转录工具 Whisper 很容易编造大段文本甚至整句话,这些幻觉中包含种族评论、暴力言论,甚至会编造医生和患者的对话。
Whisper 是 2020 年 9 月 OpenAI 推出的一款开源 AI 语音转文字工具,其在英语语音识别方面的稳健性和准确性已达到人类水平,并且支持其他 98 种语言的自动语音辨识。截至目前,Whisper 的使用范围已经涵盖了全球数千家公司,并且仅上个月开源 AI 平台 HuggingFace 中 Whisper 的最新版本下载量就超过420 万次,基于 Whisper 构建的工具已经有超过 30000 名临床医生和 40 个医疗系统使用。
密歇根大学的一名研究人员在进行一项关于公开会议的研究时透露,在他开始尝试改进模型之前,他发现他检查的每 10 个音频转录中就有 8 个出现幻觉;一位机器学习工程师称,他最初分析了 100 多个小时的 Whisper 转录样本,发现其中约有一半内容存在幻觉。还有开发人员透露,他用 Whisper 创建的 26000 份转录样本中几乎每一份都发现了幻觉。
幻觉是指大模型在生成文本、回答问题或进行其他输出时,会产生一些看似合理但实际上是错误的信息。这些信息没有事实依据,就好像模型产生了 " 幻觉 "。
即使是录制良好的短音频样本,转录幻觉的问题仍然存在。计算机科学家最近进行的一项研究发现,在他们检查的 13000 多个清晰音频片段中,有187 个片段中出现幻觉。
例如下图中,音频檔案的原话是 " 她接了电话后,她开始祈祷 ",转录的内容为 " 我感觉我要摔倒了,我感觉我要摔倒了,我感觉我要摔倒了 "。
原音频为 " 嗯,她的父亲再婚后不久就去世了 ",但 AI 将其转录为 " 没关系。只是太敏感了,不方便透露。她确实在 65 岁时去世了 "。
这种趋势或许将导致数百万条录音中出现数万处错误的转录,这对于事关人们健康安全的医疗行业影响更为深远。
一、40% 转录幻觉有害,AI 自作主张补充对话细节
Whisper 目已集成到 OpenAI 旗舰聊天机器人 ChatGPT 的某些版本中,同时也是甲骨文和微软云计算平台的内置产品。HuggingFace 的机器学习工程师 Sanchit Gandhi 说,Whisper 是最受欢迎的开源语音识别模型,并被嵌入到从呼叫中心到语音助手等各种设备中。
因此,使用范围最广的 Whisper,被发现出现大量幻觉也更令使用者担忧。
美国康奈尔大学的艾莉森 · 科内克教授和美国弗吉尼亚大学的莫娜 · 斯隆教授研究了他们从卡内基梅隆大学的研究资料库 TalkBank 获得的经转录的数千个简短片段。他们确定,Whisper 产生的幻觉中有近40%的是有害或令人担忧的,因为说话者可能会被误解或歪曲。
在他们发现的一个例子中,一位发言者说道:"他,那个男孩,我不太确定,要拿走雨伞。"
但转录軟體补充道:"他拿了十字架的一大块和一小块碎片 …… 我敢肯定他没有带恐怖刀,所以他杀了很多人。"
另一段录音中的一位发言人描述了 "另外两名女孩和一名女士 "。Whisper 编造了关于种族的额外评论,补充说 "另外两名女孩和一名女士,嗯,是黑人。"
在第三次转录中,Whisper 发明了一种不存在的药物,称为 "高活性抗生素"。
研究人员并不确定 Whisper 和类似工具为何会产生幻觉,但軟體开发人员称,幻觉往往发生在说话声音暂停,出现背景声音或有音乐播放时。
二、被用于 700 万次就诊记录,原始音频檔案被删除
OpenAI 曾在其在线披露中建议不要在 " 决策环境中 " 使用 Whisper,因为 " 决策环境的准确性缺陷可能导致结果出现明显缺陷 "。但这一警告并没有阻止医院或医疗中心使用 Whisper 等语音转文本模型来转录医生就诊时所说的内容,因为这些工具可以帮助医务人员花更少的时间做笔记或撰写报告。
目前,有超过 30000 名临床医生和 40 个医疗系统已开始使用由美国数字健康创企 Nabla 开发的基于 Whisper 的转录工具。Nabla 首席技术官马丁 · 雷森(Martin Raison)称,这一工具根据医学语言进行了微调,可以转录和总结医生与患者的互动,该工具已用于记录约 700 万次医疗就诊记录。不过,这家创企的负责人也透露,他们知道 Whisper 可能会产生幻觉并正在解决这个问题。
▲ Nabla 官网主页的 AI 工具介绍
雷森称,他们无法将 Nabla 生成的记录与原始录音进行比较,因为 Nabla 的工具会出于 " 数据安全原因 " 删除原始音频。OpenAI 前工程师威廉 · 桑德斯(William Saunders)认为,如果没有仔细检查记录,或者临床医生无法访问录音来验证其是否正确,删除原始音频可能会令人担忧。因为 " 如果你抛弃了基本事实,你就无法发现错误 "。
Nabla 的相关负责人认为,没有一种模型是完美的,目前他们的模型要求医疗服务提供者快速编辑和批准转录的记录,但未来他们或许会改变这种操作模式。
去年之前一直担任美国科技政策办公室主任的阿隆德拉 · 尼尔森(Alondra Nelson)说,这样的错误可能会产生 " 非常严重的后果 ",尤其是在医院环境中。
Whisper 还用于为聋人和听力障碍者制作隐藏式字幕——这一群体特别容易出现转录错误。负责美国加劳德特大学技术访问项目的聋人患者克里斯蒂安 · 沃格勒 (Christian Vogler)说:" 这是因为聋人和听力障碍者无法识别隐藏在所有其他文本中的捏造。"
三、Whisper 出现幻觉频率高于同类工具,OpenAI 内部已反馈更新
更令人担忧的是,由于患者与医生的会面是保密的,因此其他人很难知道 AI 生成的记录对医生和患者有何影响。
美国加州议员丽贝卡 · 鲍尔 - 卡汉(Rebecca Bauer-Kahan)称,今年早些时候,她带着一个孩子去看医生并拒绝签署该医疗网络提供的一份表格,该表格要求她允许将咨询音频分享给包括微软 Azure 在内的供应商,她不希望如此私密的医疗对话被分享给科技公司。" 该法案(美国加州和联邦隐私法)明确规定营利性公司有权获得这些权利。" 但卡汉说," 我当时的反应是绝对不行。"
这种幻觉的普遍存在促使专家、倡导者和 OpenAI 前员工呼吁联邦政府考虑制定 AI 法规。他们认为,OpenAI 至少需要优先解决这一缺陷。
" 如果(OpenAI)公司愿意优先考虑这个问题,这个问题似乎是可以解决的。" 桑德斯认为," 如果你把它推出去,人们过于自信它能做什么,并将其整合到所有其他系统中,那就有问题了。"
据 OpenAI 发言人透露,公司正在不断研究如何减少幻觉,并对研究人员的发现表示赞赏,并补充说 OpenAI 在模型更新中纳入了反馈。
虽然大多数开发人员认为转录工具会出现拼写错误或犯其他错误,但工程师和研究人员表示,他们从未见过其他 AI 转录工具像 Whisper 一样产生如此多的幻觉。
结语:幻觉问题是 AI 应用的重大隐患
一些专家在接受媒体采访时提到,此类捏造是有问题的,因为 Whisper 被全球众多行业用来翻译和转录采访、在流行的消费技术中生成文本以及为视频创建字幕。更令人担忧的是,尽管 OpenAI 警告不应在 " 高风险领網域 " 使用该工具,但医疗中心仍急于使用基于 Whisper 的工具来记录患者与医生的咨询。
即便 AI 公司一直在努力解决幻觉问题,但目前看来收效甚微。今年早些时候,谷歌的 AI 助手因建议使用无毒胶水来防止奶酪从披萨上掉下来而遭到批评;苹果 CEO 蒂姆 · 库克也在接受采访时提到,幻觉可能会成为其 AI 未来产品的一个重要问题,并且他对这些工具是否会产生幻觉的信心程度并不是 100%。
因此,如何平衡好产品开发、推向市场,与这一产品被应用到各行各业所产生的影响,对于 AI 产业的参与者而言都至关重要。