今天小编分享的科学经验:可把马斯克二次元化?「最强文生图开放模型」Stable Diffusion免费来袭!,欢迎阅读。
Stable Diffusion 最强版本,来了!
刚刚,SDXL 1.0 正式发布,可免费在线试玩。
效果上,无论是以假乱真的写实大片:
超现实的熊猫喝啤酒:
还是赛博朋克漫画,都非常 nice~
Stability AI 表示,SDXL 1.0 能生成更加鲜明准确的色彩,在对比度、光线和阴影方面做了增强,可生成100 万像素的影像(1024 × 1024)。
而且还支持在网页上直接对生成影像进行后期编辑。
(有一股和 Midjourney、Firefly 打擂台的味儿了)
网友们已经按捺不住上手试玩了 ~
和基础 Stable Diffusion 相比,SDXL 1.0 生成结果更加准确和逼真。
而且官方表示,提示词也能比之前更简单了。
这是因为 SDXL 1.0 的基础模型参数量达到了35 亿,理解能力更强。
对比基础版 Stable Diffusion,参数量只有 10 亿左右。
由此,SDXL 1.0 也成为当前最大规模的开放影像模型之一。官方甚至直接说这就是世界上最好的开放影像模型。
话不多说,我们来上手体验了 ~
SDXL 1.0 在操作上很便捷,直接输入 prompt 即可,还能从下面勾选风格、尺寸参数等。
一次生成默认是出 4 张图,如果不满意还可以点下方 " 加号 " 让它继续画。
官方介绍说,现在让 SDXL 1.0 生成大作,无需再加入 " 杰作 " 这种提示词了。
让它生成一幅日漫风格的影像,画风非常贴合,而且在光影的处理上也更加自然了。
1990s anime low resolution screengrab couple walking away in street at night
或者是一幅风景照?也能以假乱真了。
甚至是让马斯克站在中式庭院里,抬头斜望着天空……
Elon Musk in an ancient Chinese palace
或者是把苹果收购了?
在「WWDC」上,他举着全新款 iPhone 向人们展示,身边还围满了记者和粉丝(doge)。
Elon Musk releasing new iPhone at WWDC
除了这些老马的洋葱新闻之外,绘画风格的作品效果也不错。
左边的是齐白石水墨风格,而右边是一幅漫画。
左:Elon Musk delivering a speech, ink painting, Qi Baishi style
右:Elon Musk comic
除了绘画,也可以把老马放进我们的元青花。
Elon musk in the shape of Yuan Dynasty Blue and White Porcelain
上面展示的这些「老马的故事」,用的 prompt 都比较简单。
但从效果并没有因为提示词简单而拉胯,这也与官方的说法相印证。
不过我们还是想看看,如果用更加复杂精致的 prompt,会是什么样子?
我们找到了 Midjourney 创作的一张老马在苏联担任汽修工人的珍贵照片,重新喂给 MJ,让它生成个 prompt。
MJ 生成了下面这样的 prompt,我们就用它来测试 SDXL:
Elon Musk ( 这里 MJ 生成的是 a man ) standing in a workroom, in the style of industrial machinery aesthetics, deutscher werkbund, uniformly staged images, soviet, light indigo and dark bronze, new american color photography, detailed facial features
风格完全符合我们的预期,细节也还不错。
再来一个复杂 prompt 的图作为收尾,同样是 MJ 根据此前的作品生成后喂给 SDXL。
elon musk eating food with chopsticks, in the style of peter coulson, cross-processing/processed, pinhole photography, herb trimpe, james tissot, transavanguardia, spot metering
左边是 SDXL 的作品,右边是 MJ 的原版,大家可以对比一下。
提示词同样支持中文,不过似乎会在给出结果中倾向于国风,准确性可能也会受到影响。
比如输入 " 一只老虎在海边 " 后,意外给出了一个国风妹子。
效果大家都已经看到了,那么 SDXL 生成图片的速度如何呢?
对于免费用户来说,时间主要花费在排队上了,不过也不会等待太久。
在 5.5 秒的时间内,排队人数从 160 减少到了 99。
除了生成影像外,SDXL 还提供了很多后期编辑功能。
具体来说,包括去除背景、细节处理、画幅扩增等等。
这些功能是 SDXL 所在的 Clipdrop 平台上已有的,而 SDXL 可以一键将生成的图片传入对应模块。
这里我们选择背景消除功能展示一下,可以看出边缘的细节几乎没有什么破绽。
目前,SDXL 的免费使用额度还是比较高的,登录后每个账户每天可生成 400 张(需要排队)。
月付的价格是 9 美元每月,年付则相当于 7 美元(约 50 元人民币)每月,包含了 1500 张每天的 SDXL 额度,且无需排队。
不过不同区網域的价格似乎也有所区别,比如阿根廷的年付价格平摊到每月是 742 比索(约合 19.4 元人民币或 2.7 美元)。
此外,由于付费版本实际上是 Clipdrop 平台的 Pro 订阅,所以也包含了该平台的其他功能。
除了 Pro 账户,还有 API 版本可供开发者使用(可以访问 Stability AI、Amazon 等平台)。
开放影像模型中的 " 最大杯 "
在最新博客中,Stability AI 介绍了 SDXL 1.0 的更多技术细节。
首先,模型在规模和架构上都有了新突破。
它创新性地使用了一个基础模型(base model)+ 一个细化模型(refiner model)。
二者的参数规模分别为35 亿和66 亿。
这也使得 SDXL 1.0 成为目前规模最大的开放影像模型之一。
Stability AI 创始人莫斯塔克(Emad Mostaque)表示,更大规模的参数量能让模型理解更多概念,教会它更深层次的东西。
同时在 SDXL 0.9 版本还进行了 RLHF 强化。
这也是为什么现在 SDXL 1.0 支持短提示词,而且能分清红场(the Red Square)和一个红色的广场(a Red Square)。
在具体合成过程中,第一步,基础模型产生有噪声的 latent,然后由细化模型进行去噪。
其中基础模型也可以作为独立模块使用。
这两种模型结合能生成质量更好的影像,且不需要消耗更多计算资源。
官方介绍 SDXL 1.0 可以运行在 8GB VRAM 的消费级 GPU 上,或者是云端。
除此之外,SDXL 1.0 在微调也有了提升,可以生成自定义 LoRAs 或者 checkpoints。
Stability AI 团队现在也正在构建新一代可用于特定任务的结构、风格和组合控件,其中 T2I/ControlNet 专门用于 SDXL。
不过目前这些功能还处于 beta 测试阶段,后续可以关注官方更新。
总结来说,文生图都是一个逐渐迭代的过程,SDXL 1.0 的目标就是让这个过程更加简单。
莫斯塔克表示,现在只需要 5-10 张图片,就能快速微调模型。
从用户反馈中也能看到,相较于 Stable Diffusion,SDXL 1.0 更能让大家满意。
实际上,从今年 4 月以来,Stability AI 就发布了 SDXL 最早的测试版。
6 月份开始进行内测,前段时间发布了 0.9 版本,当时就预告了会在 7 月发布一个开放版本,即最新的 1.0 版本。目前相关代码权重已经发布在 GitHub 上。
而且 Stability AI 机器学习负责人表示,相较于 SDXL 0.9,1.0 版本降低了对算力的需求。
感兴趣的童鞋快去试玩吧 ~
试玩入口:
https://clipdrop.co/stable-diffusion
GitHub:
https://github.com/Stability-AI/generative-models
参考链接:
[ 1 ] https://stability.ai/blog/stable-diffusion-sdxl-1-announcement
[ 2 ] https://venturebeat.com/ai/stability-ai-levels-up-image-generation-launch-new-stable-diffusion-base-model/
[ 3 ] https://techcrunch.com/2023/07/26/stability-ai-releases-its-latest-image-generating-model-stable-diffusion-xl-1-0/