今天小编分享的科技经验:苹果个性化版Siri面临跳票,心急吃不了热豆腐,欢迎阅读。
靠着姗姗来迟的 Apple Intelligence,苹果在这一轮人工智能浪潮里终于摆脱了观众的身份。然而作为 Apple Intelligence 核心的 " 更个性化 Siri" 却可能要难产了。本月初,长期关注苹果的彭博 . 社资深记者马克 · 古尔曼爆料称,苹果方面正努力重塑 Siri 的进展可能并不顺利,或许要到 2027 年 iOS 20 发布时才会带来 " 真正现代化的对话式 Siri 版本 "。
身为 " 苹果专家 ",马克 · 古尔曼的爆料一如既往的精准。日前苹果方面也已经确认,新版个性化 Siri 的更新将比预期更晚推出,计划在 " 明年内 " 上线,但并未透露确切时间表。紧接着有传言称,在近期召开的内部会议中,苹果 Siri 团队主管 Robby Walker 承认,Siri 关键功能的延迟 " 丑陋且令人尴尬 ",并指出过早宣传未完成的技术进一步加剧了这个问题。
" 更聪明的 Siri",正是苹果去年推出 Apple Intelligence 时重点宣传的功能,比如用户召唤 Siri 分析螢幕上的内容、精准地控制应用。然而当 Apple Intelligence 正式在 iOS 18 上出现后,更能够体现 Siri 比以往更聪明的案例,基本都需要调用 ChatGPT 来实现。其中一个典型场景,就是当用户召唤出 Siri 时,Siri 往往会主动询问用户是否要调用 ChatGPT 帮忙。
一个更聪明、更个性化的 Siri,难道需要依靠 ChatGPT 来支撑?这或许是相当多用户体验过 Apple Intelligence 之后的感受。然而现实是用户不再满足于一个只能求助 " 场外援助 " 的 Siri,而是希望它能够像 ChatGPT 一样,回答复杂问题或是提供更具创造性的互动能力。
在苹果的设想中,未来的个性化版 Siri 可以协助用户处理日常工作,能够通过更自然的对话支持跨应用操作。可要知道,当下消费者对于 AI 手机的认知其实是非常割裂的,尽管确实有部分消费者对 AI 手机跃跃欲试,但有更多的人则认为,手机上的 AI 功能 " 几乎没有增加任何价值 "。
手机上的 AI 功能在提升使用体验上毫无实质性帮助,这一点绝对不是苹果方面希望看到的,所以他们也迫切地希望 AI 能够成为消费者购买 iPhone 的心动理由。这也就能解释,苹果为何会承认在 WWDC24 上展示的 Siri 新功能仅为 " 半成品原型 ",远未达到成熟标准。而将未成熟的技术作为 Apple Intelligence 的卖点,也就导致了后续的口碑反噬。
一直以来,苹果的策略是等到技术成熟后再进行应用 ,用 CEO 库克的话来说就是 "Not first,but best",他们并不会盲目追逐市场上的每一项新技术,而是会在技术成熟和稳定后,再以自己的方式将其融入到旗下的产品中。然而在 Gen AI(生成式人工智能)上,苹果方面却十分罕见地急于求成了。
遥想 2019 年的苹果财报电话会议,针对彼时手机圈的热点 5G 技术,苹果的管理层认为 5G 还处于 " 初期阶段 ",没必要急于推出 5G 手机。后来的事实也证明了他们的正确性,由于拥有品牌忠诚度和用户基础,确实也做到了不依靠 5G 也能吸引和留住用户。
那么问题就来了,为何到了 Gen AI 上,苹果的态度就变成了 " 此一时彼一时 "。其实答案很简单,因为相比属于通信技术的 5G,改变人机互動范式的 AI 才是彻底改变手机行业游戏规则的一项技术。然而现实却是当 AI 技术革命爆发时,苹果并非参与者、而是旁观者。
急于追上友商的进度,这就是当时苹果要将尚不成熟的新 Siri 推送给用户的原因。当然,先提前一个超前的概念、再把它变成真的,这也是美国科技圈的常态,如若不然,"Fake it until you make it" 也不会成为硅谷创业者的格言。只可惜,苹果这一次并未如期带来真正的个性化版 Siri。
问题出在哪里呢?从某种意义上来说,苹果其实是有点作茧自缚了。作为一个全球性的消费电子企业,苹果面向的消费者群体不仅有说英语的英美用户,还有说西班牙语、葡萄牙语的拉美用户、说汉语的中国用户、说斯瓦西里语的非洲用户、说阿拉伯语的中东用户。
需要支持多种语言,就导致 Siri 在自然语言理解(NLP)上面临着巨大的难题,让 Siri 对话更自然背后无疑是海量的工作,而这都需要时间。同时苹果方面对于 "Control ( 控制 ) " 的痴迷,导致大型开发者对他们若即若离,小团队则缺乏资源来满足苹果的合规需求,又使得 Siri 对第三方应用的适配进展缓慢。
当然,拖累苹果打造个性化版 Siri 的最大痛点,是这家公司在隐私保护问题上毫不妥协的立场。苹果方面不仅声称在训练基础模型时不使用个人数据或用户互動,还坚持尽量在本地设备运行 AI、以保护用户隐私。而在整个 Apple Intelligence 中,Siri 无疑是接触用户隐私最多的功能,它的螢幕感知能力、跨应用操作都无可避免地要使用到用户的隐私数据。
以苹果方面在 WWDC24 主题演讲中展示的询问 " 妈妈的班機几点降落 " 为例,此时 Siri 提取妈妈的班機信息不仅要识别亲属称谓,还要访问用户的邮件数据、以排除历史班機记录,并实时查询班機动态。可现实情况,却是如果不访问用户的隐私数据,个性化版 Siri 几乎可以说是无稽之谈。
可如果要在端侧运行个性化版 Siri,以目前设备的端侧算力,以及苹果端侧大模型 Apple On-Device 都有力未逮。毕竟上一个宣称运行在 Apple On-Device 上的新闻摘要功能,已经让 Apple Intelligence 陷入了非议。
所以苹果既要坚持隐私保持立场,又要让 Siri 成为 " 最佳虚拟助手 ",这才是他们陷入困境的主要原因。毕竟鱼与熊掌现阶段还不可兼得,苹果最终还是要做出选择。