今天小编分享的科技经验:苹果让ChatGPT成为设计师助手,1分钟搞定动画设计,欢迎阅读。
克雷西 发自 凹非寺
量子位 | 公众号 QbitAI
新春佳节,苹果又给设计师们奉上了新的大礼——全新的 AI 动画助手!
有了它,只要一句话,就能让静态的影像 " 运动 " 起来,没有专业知识也能轻松上手。
利用 ChatGPT,工程师们研发出了这款智能动画工具 Keyframer,它的界面十分简洁,初始状态下只有图片和提示词两个输入框。
只需要用自然语言描述动画的内容,它就会为我们搞定动画代码并进行实时渲染,平均耗时 17 秒,最长也不过 1 分钟。
如果对效果不满意,还可以通过语言描述、图形界面或直接改代码等多种方式进行编辑调整。
一名 UI 设计师看到后表示,虽然自己(对 AI)抱有偏见,但这项成果确实太棒了。
那么,Keyframer 这个工具,都能做些什么呢?
一键生成动画代码
首先需要明确的是,Keyframer 添加动画的对象是 SVG(Scalable Vector Graphics,可缩放矢量图形)格式的图稿。
不同于我们常见的 jpg、png 等图片格式,SVG 是通过人类可读的代码来表示影像当中的元素的。
比如下面这张图,就是用 SVG 仿制的量子位 logo,它直接以右侧的代码形式存储,可以直接被浏览器读取。
通过给 SVG 代码中的属性设定动态变化,就可以实现元素的位移、缩放、旋转、变色等各式各样的动画。
其中,属性变化既可以通过 SVG 规范设定的内置动画实现,还可以嵌入到网页中通过 JS 脚本或 CSS(层叠样式表)动画实现,Keyframer 采用的是 CSS 方式。
在 Keyframer 中,用户需要做的就是上传静态的 SVG 影像,并用自然语言描述动画的需求。
需要注意的是,SVG 文档中的元素需要带有 id 标注,这既是为了让大模型能够知道添加动画的位置,也是为 CSS 动画代码提供靶点。
点击绿色的生成、按钮后,Keyframer 就会调用 GPT,生成动画代码并可在页面中显示渲染结果。
如果需要对生成的动画做进一步调整,还可以向其中继续添加新的 prompt。
当然也可以自己直接上手修改,支持 " 代码 " 和 " 属性 " 两种方式。
代码模式就是直接对代码进行改动,如果不懂代码就可以利用属性模式,调整动画中的一些关键参数。
据开发者统计,Keyframer 生成一段动画代码的平均时间约 17 秒,最快 6 秒即可完成,最长也只有一分钟。
生成质量方面,Keyframer 在大多数情况下都能生成高质量的动画代码,测试中错误率只有 6.7%。
这样一来,Keyframer 解决了设计师难以将动画迁移到 Web 界面的问题,快速的修改方式也大大降低了动画版本迭代过程的工作量。
在体验用户中的调查结果表明,Keyframer 的总体用户满意度达到了 3.9 分(满分 5 分)。
那么,Keyframer 是如何实现的呢?
提示工程新成果
研发过程中,苹果的工程师并没有训练任何新的模型,而是直接使用了 GPT。
所以,除了用户界面之外,最关键也是最困难的便是提示词的设计——而除了开发者,用户也需要思考这个问题。
为了探究这一问题,让使用者可以更好地运用 Keyframer,研究团队邀请了来自不同职业的 13 名测试人员。
这 13 名测试者都有 AI 工具的使用经历,其中 11 人用过 ChatGPT,7 人用过 DALL · E 或 MidJourney,按照他们平时工作中 " 代码 " 和 " 设计 " 含量的高低,这 13 名人员被抽成了四组。
(表中 Low Code,Low Animation 可简写为 LCLA,以此类推)
这些受试者首先用 15 分钟的时间了解了关于 SVG 动画的基础知识和 Keyframer 的使用方法。
接着,他们又用了 3 分钟的时间体验了传统的 SVG 动画设计工具,并观看了 Keyframer 的效果演示。
完成这些铺垫后,他们被要求用 Keyframer 为下面两张图添加动画,两张图各有 5 分钟思考和 15 分钟操作时间。
每完成一张图的动画,研究人员都会和他们进行 5 到 10 分钟的谈话,询问对 Keyframer 是否满意,以及操作过程中遇到的问题,最后还会谈论整体感受。
通过对体验者的 prompt 特征进行分析,13 人中有 9 人更倾向于分步式的提示风格,另外 4 人则设计了 " 一体式 " 的提示词。
另外,研究者还发现,用户对 " 语义 "(Semantic)提示词的青睐程度高于高特异性(High Specificity)提示词。
语义提示词主要通过非技术性的自然语言对动画进行描述,后者则会直接使用具体的关键词和参数值。
在实验中,研究团队收集到的提示词中,有 84.4% 都是语义性的,特异性提示词则主要是被 HCLA 组选择。
这些研究结果虽未直接应用到 Keyframer 当中,但仍不失为未来用户的一项重要参考。
目前,Keyframer 的 DEMO 尚未发布,感兴趣的朋友可以持续关注一下 ~