如何理解和实践真正的宽容?
Midjourney是在线的,可以使用文字制作令人惊叹的 AI 图片。它与 Stable Diffusion 类似,但也有一些区别。Midjourney 只能在互联网上使用,并且需要付费。那么,值得为 Midjourney 付费吗?它与稳定扩散有何不同?
Midjourney vs Stable Diffusion——功能比较
您将在本节中找到 Stable Diffusion 和 Midjourney 之间的详细比较。与 Midjourney 不同,有多种方法可以使用 Stable Diffusion。我将把我的分析限制在使用AUTOMATIC1111上,这是一种用于稳定扩散的流行 GUI。
与 Midjourney 一样,您可以将 AUTOMATIC1111 用作 Web 服务(例如Google Colab)。您也可以在Windows PC和Mac上本地使用它。稳定扩散的新手?查看快速入门指南。
您将在整篇文章中看到图像比较。我在每种情况下都调整了提示和选择的模型以优化图像。所以它们不是对相同提示的直接比较,而更像是尝试生成各种风格的相似图片。
这是比较的摘要。
稳定扩散 (AUTOMATIC1111)
中途
图像定制
高的
低的
易于上手
低的
中等的
轻松生成优质图像
低的
高的
修复
是的
不
外涂
是的
不
纵横比
是的
是的
型号变体
~1,000s
~ 10s
否定提示
是的
是的
一代人的变异
是的
是的
控制构图和姿势
是的
不
执照
宽容。
取决于使用的型号
限制性的。
取决于付费等级
制作自己的模型
是的
不
成本
自由的
每月 10-60 美元
模型
开源
所有权
内容过滤器
不
是的
风格
变化
写实插画,艺术
升级器
是的
是的
图片提示
不
是的
图像到图像
是的
不
提示字数限制
没有限制
?
图片定制
在 Stable Diffusion 中自定义图片的方法较多,例如更改图片大小、应遵循提示的程度、生成的图片数量、种子值、采样器等。Midjourney 中的选项较少。您可以更改纵横比、种子以及是否提前停止。
结论:稳定扩散获胜。
易于上手
AUTOMATIC1111 有点难安装。启动并运行后,您仍然需要查找并安装模型以获得所需的样式。
Midjourney 并不像它应该的那样用户友好,主要是因为他们选择使用 Discord 作为界面。但是上手还是要容易十倍。
专业提示:想隐藏其他人的世代?创建一个新的私人服务器并邀请 Midjourney 机器人。您可以安静地生成图像。
判决:中途获胜。
轻松生成优质图像
Midjourney 以出奇地容易生成具有大量精美细节的艺术图像而闻名。你不需要非常努力地工作来生成好的图像。事实上,它经常会忽略部分提示并提供令人惊讶的美学图像。
Stable Diffusion 用户需要投入更多精力来构建良好的提示并试验模型以生成类似质量的图像。
判决:中途获胜。
迅速的
Stable Diffusion 和 Midjourney 都支持prompt和negative prompt。两者都可以增加提示中任何关键字的权重。您可以使用 AUTOMATIC1111 做更多的提示技巧,例如混合两个关键字。
判决:平局。
机械鸽
车型品种
Stable Diffusion 是一个开源模型。人们制作了不同风格的模型。目前有超过一千种模型可供下载。可以使用LoRA模型、嵌入模型和超网络进一步修改每个模型。最终结果是模型多到你没有时间尝试。
Midjourney 的模型在比较方面是有限的。他们提供 v1 到 v5 模型,以及一些特殊模型,如 niji、test、testp 和 HD。还有一个附加参数可以让图像“风格化”。但整体产品使 Stable Diffusion 相形见绌。
结论:稳定扩散获胜。
图像编辑
您可以使用 Stable Diffusion 以多种方式编辑生成的图像。这包括使用修复仅重新生成图像的一部分,以及通过修复扩展图像。您还可以使用instruct-pix2pix模型简单地告诉 Stable Diffusion 您想要更改什么。
遗憾的是,您无法使用 Midjourney 编辑图像。
结论:稳定扩散获胜。
逼真的照片比较。
风格
Midjourney v4默认生成具有**逼真插图风格的图像。**如果提示正确,它还可以生成其他艺术风格。在 v5 模型中可以拍摄逼真的照片。
得益于热情的社区和易于训练的新模型,Stable Diffusion 可以产生更广泛的风格,从写实照片到抽象艺术。用户可以将模型与嵌入、LoRA 或超网络重新混合。它可以产生令人惊讶的效果并且玩起来很有趣。
结论:稳定扩散获胜。
一代人的变异
两种报价都会生成生成图像的细微变化。您在 Midjourney 中按图像下方的 V 按钮。您在 AUTOMATIC1111 中使用变种种子选项。
判决:平局。
使用 Stable Diffusion ControlNet 复制姿势。
控制构图和姿势
您可以通过多种方式控制 Stable Diffusion 中的构图和姿势:Image-to-image、depth-to-image、instruct-pix2pix和controlNet。在 Midjourney 中,最接近的选项是使用图像提示,它像文本提示一样控制图像生成。
结论:稳定扩散获胜。
成本
将 Stable Diffusion 与 AUTOMATIC1111 结合使用可以免费使用您自己的计算机。相比之下,使用 Midjourney 每月至少要花费 10 美元。
结论:稳定扩散获胜。
执照
许多人不知道您使用 Midjourney 生成的图像的所有权取决于您的付费等级。如果您不是付费订阅者,您将一无所有。如果您支付更多,您将拥有更多权利。在任何情况下,Midjourney 都可以使用您的图像而无需事先询问您。查看他们的服务条款。
相反,Stable Diffusion对您生成的图像没有任何权利。您可以分发和进一步训练模型,甚至出售它。但是,由其他人进一步微调的模型可能会有额外的限制。因此,当您使用新型号时,请务必阅读许可和使用条款。
结论:稳定扩散获胜。
人像
内容过滤器
最初的 Stable Diffusion v1 软件中有一个内容过滤器,但社区很快分享了一个禁用过滤器的版本。所以实际上,v1 模型中没有内容过滤器。v2 更棘手,因为 NSFW 内容已从训练图像中删除。它无法通过设计生成显式内容。相比之下,生成显式图像在 Midjourney 中是禁止的。即使在提示级别也被阻止。如果你尝试,你可能会被禁止。
结论:稳定扩散获胜。
制作自己的模型
也许 Stable Diffusion 的最大吸引力在于可以制作您自己的模型。如果您不喜欢所看到的图像,您可以随时训练自己的模型。您可以使用dreambooth、textual inversion、LoRA、hypernetwork,或者简单地使用您自己的图像进行额外的训练。不幸的是,你不能用 Midjourney 做到这一点。
结论:稳定扩散获胜。
升级器
Stable Diffusion 和 Midjourney 都有upscalers。AUTOMATIC1111 中可用的选择和参数更多。事实上,您可以轻松地安装额外的。
结论:稳定扩散获胜。
图片提示
您可以在 MidJourney 中将图像与文本提示一起用作提示。它将生成图像提示和文本提示内容的组合。这与 Stable Diffusion 中的图像到图像不同,其中输入图像充当初始图像但不用于调节。最接近 Stable Diffusion 的是Stable Diffusion Reimagine,它使用输入图像作为条件来代替文本提示。
判决:中途获胜。
图像到图像
目前,Midjourney 不提供图像到图像功能,这是一种扩散模型基于另一幅图像生成图像的方法。这并不奇怪,因为早期版本的 Midjourney 可能不是扩散模型。
结论:稳定扩散获胜。
提示限制
Midjourney 过去曾表示,他们的用户指南中的提示有大约 60 个字的限制。但他们删除了该声明。另一方面,AUTOMATIC1111 现在支持无限提示长度。
判决:不清楚。
Midjourney 是否使用稳定扩散?
Midjourney v5 模型不是稳定扩散。他们就是这么说的。然而,对 v5 的改进看起来与 Stable Diffusion v2 可疑地相似:提示需要更加直白和具体。人们有五根手指……Midjourney 能否共享 Stable Diffusion v2 的一些组件,例如OpenClip 文本嵌入?由于运行成本较低,使用扩散模型当然是有意义的。
Midjourney 比 Stable Diffusion 好吗?
我不想给出外交答复,但这实际上取决于您要寻找的内容。
Midjourney 有其独特的风格——高对比度、良好的照明和逼真的插图。创建具有大量细节的图像非常容易。您无需非常努力就可以获得良好的图像。
另一方面,Stable Diffusion 也可以创建类似或更好的图像,但它需要更多的专业知识。因此,如果您准备迎接挑战并想深入研究事物的技术方面,那么 Stable Diffusion 非常适合您。
Midjourney 与 Stable Diffusion 有何不同?
您可以阅读第一部分进行逐点比较。主要区别在于运营模式和它们所迎合的用户。
**Midjourney 选择了专有的商业模式。**他们负责模型开发、培训、调整和用户界面。一切都应该简单且开箱即用。你告诉模型你想要什么,你就会得到它。
Stable Diffusion 是一个包含开源生态系统的软件。该模型的代码和训练数据可供所有人访问。您可以在此基础上进行构建并微调模型以实现您想要的效果。你猜怎么着?人们已经这样做了!像您这样的用户已经公开创建和共享了数以千计的模型。
但这还不是全部。每周都会创建新的和令人惊叹的工具,它永远让我感到惊讶,当有机会这样做时,人们是多么有创造力。
在稳定扩散中生成中途图像
在 Stable Diffusion 中重新创建 Midjourney 图像很棘手,但也是可能的。我使用以下工作流程。
使用相同的提示查看您得到的结果。您可以从 v1.5 基本模型开始。结果通常是非常不同的。调整提示的**关键字。**您可能会发现 Midjourney 忽略了一些关键字并冒昧地添加了其他关键字。我通常会查看提示生成器中的关键字,看看如何实现相同的效果。您可能想要添加否定提示(通用提示通常没问题)。您肯定需要添加一些照明关键字。注意对比度和亮度。选择可以达到类似效果的照明关键字。由于 Midjourney 图像较暗,您可能需要添加像epi_noiseoffset这样的 LoRA 。最后,尝试不同的模型并调整调整提示。
如果要复制合成,请使用ControlNet 。
我将写另一篇文章来逐步详细说明该过程。敬请关注!
我应该使用哪一个?
Midjourney 和 Stable Diffusion 都拥有庞大的用户群。他们有自己的长处和短处。
Midjourney 适合你,如果
您想在没有深度学习曲线的情况下生成令人惊叹的图像。您很忙,没有时间建立和学习模型。您喜欢 Midjourney 风格。您正在寻找开箱即用的 AI 图像解决方案。您不介意支付订阅费。您同意他们的使用条款。
稳定扩散适合你,如果
您想要一个完全免费的解决方案。你想在本地运行一切。你精通技术。您喜欢修补您的设置、尝试模型组合和使用新工具。您需要图像编辑功能。您更喜欢开源工具。您希望更好地控制图像。
我希望本文能帮助您了解 Midjourney 和 Stable Diffusion 之间的区别,并帮助您决定使用哪一个。如果你能负担得起时间和资源,你应该尝试两者。您可能会发现两者在您的工作流程中都有自己的位置。我同时使用它们,并且经常对与另一个人一起制作图像的挑战着迷。
[