今天小编分享的互联网经验:生成式AI手机怎么样?首款70亿参数大模型手机OPPO Find X7有答案,欢迎阅读。
手机除了卷影像能力,还能卷什么?
2024 年度发布的首款旗舰智能手机 OPPO Find X7 系列给出了答案——端侧生成式 AI。
Find X7 的 4 种配色:烟云紫、海阔天空、大漠银月、星空黑
2024 年 1 月 8 日 OPPO 发布的全新旗舰 Find X7,以全新一代同心寰宇设计,全新超光影三主摄实现的哈苏全焦段大师影像,OPPO 自研潮汐架构所释放的超强性能,以及超明亮超护眼的新一代钻石屏,再度革新行业的旗舰标准。
OPPO Find X7 Uluta 更是首创了双潜望四主摄构成哈苏大师镜头群,再次刷新移动影像天花板。OPPO 首席产品官刘作虎称 Ultra 这个词代表的就是——极致,没有中间态。
影像能力已经领先,OPPO 还率先为消费者展示了生成式 AI 手机的样子,全球首个端侧应用 70 亿参数大语言模型的手机有何不同?
手机的 AI 功能并不新鲜,AI 美颜,AI 助手已经被广泛应用,但是和生成式 AI 实现的功能还有两个明显的差异,更智能和更多样的玩法。
手机端大模型如何更新 AI 体验?
以 AI 图片消除来说,传统的 AI 修图,不够智能且效果不够理想。
比如在拥挤的景点拍了一张风景照,想要消除照片里的路人,传统 AI 的做法要手动精细选择范围,等待许久之后获得单纯被模糊掉路人的照片,观感很差。
如果是借助手机端的大模型能力,大致框定需要消除的范围,就可以轻松消除风景照里的路人,并且 AI 还会 " 生成 " 出路面,得到一张没有人潮的风景照。
这就是 Find X7 的 AIGC 消除功能,区别于传统的 AI 模型只支持人体识别,Find X7 的大模型能力不仅支持超过 120 类主体的识别与分割,还可以实现发丝级的分割、高达 6 个的多主体分离,与此同时,还能实现超大面积影像的填充与自然生成,这是手机端生成式 AI 时代影像编辑的体验。
和 AI 编辑图片一样普及的还有 AI 语音助手。
现有的语音助手,大部分人用起来还是觉得不够智能,新鲜劲一过就会被遗忘。但有了手机端的 AI 大模型,体验也实现了跨越式的提升,AI 助手能够更好地理解自然语言,对话起来更像人和人之间的聊天。
在 AI 大模型加持下,OPPO 全新的小布不仅可以聊天,还可以回答各种问题,总共超过 100 种能力,包括文字生成图片、图片生成文字、AI 文章摘要等功能,能够在办公效率,生活服务,学习教育等不同维度为用户提供帮助。
比如你可以问小布为什么饼干上有很多小孔?并让小布以四岁孩子能理解的方式回答。
除了更新已有的手机端 AI 体验,生成式 AI 模型还给手机带来了全新的 AI 功能。
比如通话摘要,在 Find X7 系列的发布会现场,刘作虎展示了一段和理想汽车 CEO 李想电话交流结束后,AI 大模型语音摘要功能,重点清晰的呈现出了通话的要点,并生成待办,极大提升了效率。
这得益于 Find X7 的端侧 70 亿参数大模型,相比其他的 10 亿参数模型,以更高 " 智商 " 的理解能力,可以更准确地理解对话内容并生成重点明确、细节不遗漏的摘要内容。
同时,借助 OPPO 安第斯大模型端云协同的智能调度,OPPO 大模型语音摘要的处理全程经过加密处理,生成的摘要内容完全存储于终端本地,能够很好保护用户隐私。
隐私保护,更快速度都是端侧大模型带来的优势。
相比于同平台其他模型,Find X7 搭载的端侧 70 亿参数大语言模型可以在 200 字首字生成带来 20 倍的更快响应,面向 2000 字首字生成也可以实现 2.5 倍的更快速度。
并且,Find X7 的端侧 70 亿大模型还可以实现最高 14,000 的摘要字数上限,达到了同平台其他模型的 3.5 倍,大模型的对话体验更接近人类对话的速度与容量。
全球首个端侧应用 70 亿参数大语言模型的手机如何炼成?
Find X7 是全球首个端侧应用 70 亿参数大语言模型的手机,并通过端云协同的部署,实现了领先不止一代的 AI 体验。
" 为什么我们能够第一个把 70 亿大模型真正在端侧运用起来?模型、算法与 GPU、NPU 如何适配和部署,不是简单的事情。" 刘作虎进一步解释," 这个过程需要与平台厂紧密沟通,基于我们对芯片的理解和对用户的洞察,根据大模型和算法来定制芯片,用芯片的语言给芯片厂商提需求,这是我们的核心竞争力。"
刘作虎透露,"我们保留了一些核心的架构师,目的就是跟平台厂商,比如说高通和联发科的深度定制芯片。我们自己不做芯片,芯片平台厂非常愿意和我们深度探讨,实现强强联合。如果不懂芯片,没有做过芯片,只能停留在‘水上漂’不能进入到底层,比如我们自研的潮汐架构,比重新做的价值更大。"
潮汐架构是 OPPO 自研的芯片软硬融合技术的集合,是一群懂芯片的人打造的芯片优化技术。
潮汐结构深度触及了 SoC 的 L3 缓存和 SLC(系统级缓存),传统 SoC 的 SLC 往往针对 CPU 和 GPU 等计算核心采用固定的分配方案,这种死板的分配方式会造成一定的资源浪费和拥堵。
潮汐架构可以根据应用场景的不同,灵活调整缓存配比。
比如当运行大型游戏需要影像渲染时,GPU 分配更多的,降低对 DDR 和 UFS 的访存频率,提高应用运行速度,还能降低计算链路的整体能效。经测算,对于 SLC 的调度优化,能带来平均 8% 的能效节约。
端侧大模型的部署,少不了潮汐架构,但端侧大模型面临着更极致的计算和存储挑战。
OPPO 軟體创新中心总经理张峻解释,70 亿大模型正常的模型大小是 28GB,为了真正在端侧部署,OPPO 用高精度 4 比特对模型进行压缩和轻量化,模型从 28GB 压缩到最小的 3.9GB 左右。
即便如此,依旧对手机的性能、内存和功耗都是很大的考验。
" 大模型在端侧性能消耗比较大,要通过并行计算的算子优化、对内存管理的优化等来降低损耗和系统资源占用。续航方面要根据用机的情况来看,我们端侧大模型的功耗控制在用户可以接受的范围内。" 张峻表示。
"OPPO Find X7 系列端侧化部署 70 亿参数的大语言模型,视觉模型也会端侧化部署,它会跟着我们的 OTA 随后上线。" 张峻强调," 我们真正把 70 亿参数大模型同时在高通和联发科两个芯片平台上端侧化部署,OPPO 是第一家。"
至于为什么会选择 70 亿参数的模型,张峻也给出了解释,"为什么选择 70 亿参数的模型,而不是 10 亿参数?我们在每一个场景都会选择最恰到好处的参数规模,它代表了这个模型在这个场景的聪明程度。"
技术能力之外,在手机端 AI 领網域成功的关键是策略。
" 我认为未来几年的实核心是用产品驱动。基于要做什么产品,确定大模型的训练,以及底层的算力,整体路线还是以产品驱动技术。" 刘作虎认为," 通过用户洞察的方式来做产品最重要。谁对用户最理解,谁真正地懂产品,谁就能在竞争中保持差异化,始终拥有核心竞争力。"
雷峰网了解到,OPPO 在上周五成立了 AI 中心,聚集了公司所有 AI 相关的员工,目标是集中所有资源把 AI 做好。
OPPO 已经拉开了手机生成式 AI 时代的序幕,未来端侧大模型还能给手机带来怎样意想不到的应用?