今天小编分享的互联网经验:求医3年无果,ChatGPT诊断出4岁男孩病因,大模型开始入局医疗,欢迎阅读。
文|周愚
编辑|邓咏仪 尚恩
ChatGPT 又立大功了!
据外媒报道,一位母亲考特尼病急乱投医,向 ChatGPT 分享了儿子亚历克斯症状的有关信息后,意外之喜出现了——ChatGPT 精准地发现孩子可能罹患脊髓栓系综合征。
而在这之前,考特尼已经带着亚历克斯四处求医三年,陆续问诊了 17 名医生,他们分别来自牙科、儿科、耳鼻喉、成人内科、肌肉骨骼等各个科室,却始终查不出孩子的病因。
亚历克斯。图源:today.com
事情要从 2020 年新冠疫情封锁期间说起,当时 4 岁的亚历克斯收到了母亲送的跳跳屋玩具,谁也没有想到这会开启他三年饱受病痛折磨的日子。
起初,亚历克斯只是不停地磨牙,而后考特尼又逐渐发现孩子的发育速度明显减缓,甚至出现左右脚不平衡的情况—— " 他会先用右脚向前走,然后拖着左脚往前。"
与此同时,亚历克斯还开始遭受愈发严重的头痛,这让亚历克斯每天不得不以服用布洛芬为生。
" 我们看了这么多的医生,一度长时间待在急诊室里。我一直在努力。我几乎(在电腦上)浏览了一整夜,经历了这所有事情。" 当 ChatGPT 给出诊断意见后,这位母亲接受媒体采访时的感动、喜悦溢于言表。
原来,在许多脊柱裂患儿中,孩子的背部都有一个可见的开口。然而,亚历克斯所患的却是隐匿性脊柱裂,封闭而难以发现。这也是为什么之前的 17 位医生,无一人发现。
报道一出,网友们便开始纷纷热议,大部分网友喜闻乐见大模型在医疗领網域的这种应用:" 无法负担医疗费用和在贫困国家的人们将会大大受益于此。"
图源:X(推特)
更有网友补充道,意义不止于此——这对罕见病、疑难杂症很有帮助。
当然,一些网友谨慎的质疑也不无道理:" 如果没有人类专家的交叉确认,我们要如何确定 ChatGPT 的诊断是正确的?"
不过,用大模型看病早已不是什么个例。今年以来,大语言模型的概念持续走高,国内外科技巨头们也纷纷将大模型运用于 "AI+ 医疗 " 之中。
" 百模大战 " 之下,医疗大模型也正热闹。
科技巨头涌入医疗大模型
这无疑是振奋人心的消息。此前的 "AI+ 医疗 " 大多落地在医疗影像领網域,但随着大语言模型的技术突破,临床中产生的巨量繁杂的医疗数据也有了用武之地。ChatGPT 等大模型拥有更全面的知识体系,可以帮助发现许多人类医生忽略的细节。
据不完全统计,国内外如谷歌、英伟达、亚马逊、腾讯、百度、京东等科技巨头,都已经率先开始了医疗大模型的布局。
据悉,今年 4 月以来,谷歌就已经开始在美国一些顶尖私立医院实测其第二代医疗大模型—— Med-PaLM 2。该模型由 DeepMind 的医疗健康团队,基于 PaLM 2 微调得来,使用者可以直接输入一张 X 光片,Med-PaLM 2 就会对患者的病情进行诊断和分析。
图源:Google Research
与此同时,该模型也成为了在美国医疗执照考试中达到专家水平的首个大模型。根据一份内部邮件,谷歌认为 Med-PaLM 2 在 " 就医渠道较为有限 " 的国家尤其有用。
谷歌官网介绍,在一组对照实验中,Med-PaLM 2 的答案甚至在九项指标中的八项都要优于医生给出的答案。
另外,英伟达早在 2021 年就开始与 Schrodinger 战略合作,试图提升其计算平台的速度和精确度,加速开发新的治疗方法。2 个月前,英伟达又投资 5000 万美元,推进生物和化学领網域 AI 基础模型的开发训练。
放眼国内,医疗大模型的商业化探索也正如火如荼地展开。
9 月 8 日,腾讯健康对外公布了其医疗大模型,产品矩阵包括智能问答、家庭医生助手、数智医疗影像平台等多个应用场景 AI 产品矩阵。而早在 2020 年 7 月,腾讯自主研发的首个 AI 驱动的药物发现平台云深智药(iDrug)就正式对外发布。
图源:腾讯 AI Lab-iDrug
今年 7 月,科大讯飞、京东等公司也动作频频。科大讯飞表示," 讯飞医疗 " 基于星火认知大模型,全面更新了医疗诊后康复管理平台,要将 " 专业的诊后管理和康复指导延伸到院外 "。
京东健康也于 7 月 13 日,对外发布了 " 京医千询 " 医疗大模型,为远程医疗服务提供技术底座。
纵观各家企业的医疗大模型布局,我们也不难发现,大模型已经深入了医疗领網域的各个角落,除了 AI 问诊,大模型在医疗影像、临床决策辅助、医院管理、药物研发等不同应用场景还有 " 一百种可能 "。
大模型的出现,似乎也成为了某些 "AI+ 医疗 " 应用场景的救命稻草。
当国内 AI 制药融资金额在 2022 年腰斩,财报开始露出难色时,ChatGPT 为代表的大模型,似乎又给这个行业带来了新的躁动,智能涌现此前也对 AI 制药有过分析。
AI 幻觉、数据隐私,还是老大难
一面是头部公司积极布局,开始商业化探索;但另一面,以世界卫生组织为代表的许多社会组织和个人,也在积极呼吁,对 AI 医疗服务采取 " 非常谨慎 " 的态度。
今年 5 月,世界卫生组织就在声明中强调:" 仓促采用未经检验的 AI 系统可能会导致医务人员的错误,对患者造成伤害,损害人们对人工智能的信任,进而可能影响(或延迟)AI 技术在全球的长期惠益何应用。"
图源:世卫组织
对于大模型在医疗领網域的质疑,首先是可靠性的问题。任何医疗行为都直接关乎于人的生命安全,因此必须确保 AI 所提供的信息是准确且安全的,容错率更低。
然而,截止目前,AI 显然做不到这一点。在与 ChatGPT 等大模型交流时,AI 幻觉仍然时有发生。例如,在向 ChatGPT 提问有关流感的问题时,它可能会给出几篇标题听起来真实,但实际并不存在的论文。
这显然是不可接受的。毕竟,谁也不想过去的 " 网上问病,癌症起步 " 再次上演。尽管 ChatGPT 等大模型拥有巨量的知识,可能不像人类医生一样存在盲点,但目前来看,大模型也只能成为医生和临床诊断的助手,而不是替代医生。
美国医学协会主席杰西 · 埃伦菲尔德在回应媒体采访时,就强调说:" 正如我们要求证明新药和生物制剂是安全有效的一样,我们也必须确保 AI 医疗保健应用的安全性和有效性。"
除此之外,由于医疗信息自身的敏感性,数据安全与隐私这个老问题,医疗大模型依然逃不开。
有别于通用大模型基于海量互联网来训练的方式,医疗大模型所需的数据大多是私有且涉及个人隐私的。
要想保障训练数据安全,目前主要的应对方法是通过技术手段进行加密处理,将医疗数据加密处理后上传大模型,再将结果解密传回。
但这也有个问题,就是如果管理规范不完善,也可能导致加密数据被非法使用或泄露。