今天小编分享的互联网经验:从“源头”保护数据安全:腾讯安全推出大模型隐私保护脱敏技术,欢迎阅读。
大模型已经被广泛应用在各类场景,帮助人们进行报告摘要、文本翻译、数据分析、业务风控等各项工作,极大地提升了工作效率,但同时公众对于大模型带来的数据泄露的隐忧也从未停止。
近日,腾讯安全玄武实验室披露了一项关于大模型隐私保护的安全脱敏与还原(Hide and Seek, HaS)技术,有望帮助大模型产品使用者从本地终端侧防范隐私数据泄露。
HaS 为业内首个支持信息还原的自由文本脱敏技术,通过对用户上传给大模型的 prompt(提示词)进行隐私信息脱敏,并在大模型返回计算结果后进行恢复,该方案兼顾了隐私安全和计算资源消耗:脱敏与还原算法经过 4bit 量化后权重檔案仅 500MB,可在手机、 PC 等终端上部署。
这是业内首个公开发布的、能被大模型用户部署于终端侧的隐私保护脱敏技术。借助这一技术,用户可以从 " 源头 " 免除使用云端大模型带来的数据泄露方面的担忧。
据悉,这个模型主要适用于典型的 NLP 任务场景,例如机器翻译、文本摘要,文本润色、阅读理解、文本分类、情感分析等,其主要的技术难点在于如何解决实体识别与替换、实体指代消解、多义词识别、自纠错鲁棒性还原、实体翻译等。此前,不少大模型提供方以及专业安全厂商均在积极进行相关的尝试,但目前尚未有理想的解决方案。
" 在大模型应用中提示词是一种自由文本,而针对自由文本的隐私保护问题,一种全密态的解决方案是通过安全多方计算(Multi-Party Computation, MPC)協定实现安全推理。然而,MPC 協定在计算成本和通信量上的高需求严重限制了其在大模型应用中的落地。" 腾讯安全玄武实验室高级安全工程师陈昱表示," 实际上,多数场景下用户并不需要保护整句的信息不泄漏,而仅需要保护其中的隐私实体不泄漏。" 玄武实验室经过正则匹配、近义词向量、BERT NER+CR 等方法的不断探索试错后,最终提出了这项技术。
实验表明,HaS 的数据脱敏处理并不会对任务造成影响。在使用模型进行隐私保护与直接调用大模型相比 " 分类任务 " 与 " 翻译任务 " 两个场景的性能对比,在使用 560M 生成式方案下,文本分类任务的性能不仅没有下降,反而增加了 0.14%;在 1.7B 标签式方案下,机器翻译任务性能仅下降了 0.85%。
腾讯安全玄武实验室将上述研究发现以论文形式发布,更多技术细节可参考玄武官方博客(见文章最后)。
" 一些企业或者个人用户开发者通过部署本地大模型来规避隐私数据泄露,但这要求一定的技术门槛,对于重度隐私需求的用户来说,通过本地安全模型 / 算法来实现数据保护,可能是更可行的办法。" 玄武实验室正在逐步丰富这一模型的应用覆盖面,并完善其部署和交付方式,以供企业用户和个人用户在未来能够便捷使用。
数据如今在社会生活生产中扮演越来越重要的角色,数据安全也始终是产业数字化进程的核心议题。腾讯安全持续致力于解决数据安全问题,护航各行各业产业更新。
详细技术报告地址:
https://xlab.tencent.com/cn/2023/12/05/hide_and_seek/
雷峰网