AI绘画训练+3D渲染机想双ue4用什么显卡效果好怎么配?请教各位一下

最近 AI 火的一塌糊涂,除了 ChatGPT 以外,AI 绘画领域也有很大的进步,以下几张图片都是 AI 绘制的,你能看出来么?Stable Diffusion是2022年发布的深度学习文生图模型 它主要功能是用文本的描述产生图像。本文内配图均由SD绘制学习如何与Ai(及其背后的模型)进行沟通交流,越来越重要,相信大家各有感悟。本文分享Ai画画模型(尤其是stable diffusion)的参数设置和沟通技巧。之所以需要学习,本质上是因为两点:01.Ai模型在特定领域学习和涉猎的内容已经远超过绝大多数Ai工具使用者。普通人不知道Ai知道什么,也不知道Ai不知道什么。学习与Ai沟通其实也是学习领域知识,尤其是结构化知识的好机会。02.Ai程序开发者为了方便使用者与Ai模型沟通,对人性化的沟通机制已经有所考量,不可能让使用者直面运行Ai模型所需的所有参数,但这个被设计的机制不管有多贴合使用者的日常经验,仍然是需要学习和熟悉的。闲话少叙,上硬菜------------------------人工智能创作内容(AIGC)大家一定都不陌生,它绝对是2022年AI领域最热门的话题之一。在ChatGPT出现之前,AI绘画就凭借其独特的创意与便捷的创作工具迅速走红,让AIGC 火爆出圈,广受关注。22年以来,以 Stable Diffusion、Midjourney、NovelAI 等为代表的文本生成图像的跨模态应用相继涌现。基于 Stable Diffusion 生成人和场景的效果都比较好,本文就带大家深入体验这款绘画软件。(一定要看到最后,笔者汇总了多个版本的体验地址等着你)01.Stable Diffusion 是什么?简单来说Stable Diffusion是一个文本到图像的潜在扩散模型,由CompVis、Stability AI和LAION的研究人员和工程师创建。它使用来自LAION-5B数据库子集的512x512图像进行训练。使用这个模型,可以生成包括人脸在内的任何图像,因为有开源的预训练模型,所以我们也可以在自己的机器上运行它。本文首先介绍什么是Stable Diffusion,并讨论它的主要组成部分。然后我们将使用模型以三种不同的方式创建图像,这三种方式从更简单到复杂。相关资源这里简单罗列下stable diffusion相关的各类资源,包括代码、模型等等。官网:http://ommer-lab.com/research/论文:http://arxiv.org/abs/2112.1075Github地址:http://github.com/CompVis/stab模型下载地址: http://huggingface.co/CompVis/http://huggingface.co/CompVis/整合包+模型下载AI绘画软件Stable Diffusion+WebUI+Chilloutmix/ControlNet模型(一键安装包)支持WIN/MAC02.Stable Diffusion的原理是什么?图解Stable DiffusionAI模型最新展现出的图像生成能力远远超出人们的预期,直接根据文字描述就能创造出具有惊人视觉效果的图像,其背后的运行机制显得十分神秘与神奇,但确实影响了人类创造艺术的方式。Stable Diffusion的发布是AI图像生成发展过程中的一个里程碑,相当于给大众提供了一个可用的高性能模型,不仅生成的图像质量非常高,运行速度快,并且有资源和内存的要求也较低。相信只要试过AI图像生成的人都会想了解它到底是如何工作的,这篇文章就将为你揭开Stable Diffusion工作原理的神秘面纱。Stable Diffusion从功能上来说主要包括两方面:1)其核心功能为仅根据文本提示作为输入来生成的图像(text2img);2)你也可以用它对图像根据文字描述进行修改(即输入为文本+图像)。下面将使用图示来辅助解释Stable Diffusion的组件,它们之间如何交互,以及图像生成选项及参数的含义。Stable Diffusion组件Stable Diffusion是一个由多个组件和模型组成的系统,而非单一的模型。当我们从模型整体的角度向模型内部观察时,可以发现,其包含一个文本理解组件用于将文本信息翻译成数字表示(numeric representation),以捕捉文本中的语义信息。虽然目前还是从宏观角度分析模型,后面才有更多的模型细节,但我们也可以大致推测这个文本编码器是一个特殊的Transformer语言模型(具体来说是CLIP模型的文本编码器)。模型的输入为一个文本字符串,输出为一个数字列表,用来表征文本中的每个单词/token,即将每个token转换为一个向量。然后这些信息会被提交到图像生成器(image generator)中,它的内部也包含多个组件。图像生成器主要包括两个阶段:1. Image information creator这个组件是Stable Diffusion的独家秘方,相比之前的模型,它的很多性能增益都是在这里实现的。该组件运行多个steps来生成图像信息,其中steps也是Stable Diffusion接口和库中的参数,通常默认为50或100。图像信息创建器完全在图像信息空间(或潜空间)中运行,这一特性使得它比其他在像素空间工作的Diffusion模型运行得更快;从技术上来看,该组件由一个UNet神经网络和一个调度(scheduling)算法组成。扩散(diffusion)这个词描述了在该组件内部运行期间发生的事情,即对信息进行一步步地处理,并最终由下一个组件(图像解码器)生成高质量的图像。2. 图像解码器图像解码器根据从图像信息创建器中获取的信息画出一幅画,整个过程只运行一次即可生成最终的像素图像。可以看到,Stable Diffusion总共包含三个主要的组件,其中每个组件都拥有一个独立的神经网络:1)Clip Text用于文本编码。输入:文本输出:77个token嵌入向量,其中每个向量包含768个维度2)UNet + Scheduler在信息(潜)空间中逐步处理/扩散信息。输入:文本嵌入和一个由噪声组成的初始多维数组(结构化的数字列表,也叫张量tensor)。输出:一个经过处理的信息阵列3)自编码解码器(Autoencoder Decoder),使用处理过的信息矩阵绘制最终图像的解码器。输入:处理过的信息矩阵,维度为(4, 64, 64)输出:结果图像,各维度为(3,512,512),即(红/绿/蓝,宽,高)什么是Diffusion?扩散是在下图中粉红色的图像信息创建器组件中发生的过程,过程中包含表征输入文本的token嵌入,和随机的初始图像信息矩阵(也称之为latents),该过程会还需要用到图像解码器来绘制最终图像的信息矩阵。整个运行过程是step by step的,每一步都会增加更多的相关信息。为了更直观地感受整个过程,可以中途查看随机latents矩阵,并观察它是如何转化为视觉噪声的,其中视觉检查(visual inspection)是通过图像解码器进行的。整个diffusion过程包含多个steps,其中每个step都是基于输入的latents矩阵进行操作,并生成另一个latents矩阵以更好地贴合「输入的文本」和从模型图像集中获取的「视觉信息」。将这些latents可视化可以看到这些信息是如何在每个step中相加的。整个过程就是从无到有,看起来相当激动人心。步骤2和4之间的过程转变看起来特别有趣,就好像图片的轮廓是从噪声中出现的。Diffusion的工作原理使用扩散模型生成图像的核心思路还是基于已存在的强大的计算机视觉模型,只要输入足够大的数据集,这些模型可以学习任意复杂的操作。假设我们已经有了一张图像,生成产生一些噪声加入到图像中,然后就可以将该图像视作一个训练样例。使用相同的操作可以生成大量训练样本来训练图像生成模型中的核心组件。上述例子展示了一些可选的噪声量值,从原始图像(级别0,不含噪声)到噪声全部添加(级别4) ,从而可以很容易地控制有多少噪声添加到图像中。所以我们可以将这个过程分散在几十个steps中,对数据集中的每张图像都可以生成数十个训练样本。基于上述数据集,我们就可以训练出一个性能极佳的噪声预测器,每个训练step和其他模型的训练相似。当以某一种确定的配置运行时,噪声预测器就可以生成图像。移除噪声,绘制图像经过训练的噪声预测器可以对一幅添加噪声的图像进行去噪,也可以预测添加的噪声量。由于采样的噪声是可预测的,所以如果从图像中减去噪声,最后得到的图像就会更接近模型训练得到的图像。得到的图像并非是一张精确的原始图像,而是分布(distribution),即世界的像素排列,比如天空通常是蓝色的,人有两只眼睛,猫有尖耳朵等等,生成的具体图像风格完全取决于训练数据集。不止Stable Diffusion通过去噪进行图像生成,DALL-E 2和谷歌的Imagen模型都是如此。需要注意的是,到目前为止描述的扩散过程还没有使用任何文本数据生成图像。因此,如果我们部署这个模型的话,它能够生成很好看的图像,但用户没有办法控制生成的内容。在接下来的部分中,将会对如何将条件文本合并到流程中进行描述,以便控制模型生成的图像类型。加速:在压缩数据上扩散为了加速图像生成的过程,Stable Diffusion并没有选择在像素图像本身上运行扩散过程,而是选择在图像的压缩版本上运行,论文中也称之为「Departure to Latent Space」。整个压缩过程,包括后续的解压、绘制图像都是通过自编码器完成的,将图像压缩到潜空间中,然后仅使用解码器使用压缩后的信息来重构。前向扩散(forward diffusion)过程是在压缩latents完成的,噪声的切片(slices)是应用于latents上的噪声,而非像素图像,所以噪声预测器实际上是被训练用来预测压缩表示(潜空间)中的噪声。前向过程,即使用使用自编码器中的编码器来训练噪声预测器。一旦训练完成后,就可以通过运行反向过程(自编码器中的解码器)来生成图像。前向和后向过程如下所示,图中还包括了一个conditioning组件,用来描述模型应该生成图像的文本提示。文本编码器:一个Transformer语言模型模型中的语言理解组件使用的是Transformer语言模型,可以将输入的文本提示转换为token嵌入向量。发布的Stable Diffusion模型使用 ClipText (基于 GPT 的模型) ,这篇文章中为了方便讲解选择使用 BERT模型。Imagen论文中的实验表明,相比选择更大的图像生成组件,更大的语言模型可以带来更多的图像质量提升。早期的Stable Diffusion模型使用的是OpenAI发布的经过预训练的 ClipText 模型,而在Stable Diffusion V2中已经转向了最新发布的、更大的CLIP模型变体OpenClip.CLIP是怎么训练的?CLIP需要的数据为图像及其标题,数据集中大约包含4亿张图像及描述。数据集通过从网上抓取的图片以及相应的「alt」标签文本来收集的。CLIP 是图像编码器和文本编码器的组合,其训练过程可以简化为拍摄图像和文字说明,使用两个编码器对数据分别进行编码。然后使用余弦距离比较结果嵌入,刚开始训练时,即使文本描述与图像是相匹配的,它们之间的相似性肯定也是很低的。随着模型的不断更新,在后续阶段,编码器对图像和文本编码得到的嵌入会逐渐相似。通过在整个数据集中重复该过程,并使用大batch size的编码器,最终能够生成一个嵌入向量,其中狗的图像和句子「一条狗的图片」之间是相似的。就像在 word2vec 中一样,训练过程也需要包括不匹配的图片和说明的负样本,模型需要给它们分配较低的相似度分数。文本信息喂入图像生成过程为了将文本条件融入成为图像生成过程的一部分,必须调整噪声预测器的输入为文本。所有的操作都是在潜空间上,包括编码后的文本、输入图像和预测噪声。为了更好地了解文本token在 Unet 中的使用方式,还需要先了解一下 Unet模型。Unet 噪声预测器中的层(无文本)一个不使用文本的diffusion Unet,其输入输出如下所示:在模型内部,可以看到:1. Unet模型中的层主要用于转换latents;2. 每层都是在之前层的输出上进行操作;3. 某些输出(通过残差连接)将其馈送到网络后面的处理中4. 将时间步转换为时间步长嵌入向量,可以在层中使用。Unet 噪声预测器中的层(带文本)现在就需要将之前的系统改装成带文本版本的。主要的修改部分就是增加对文本输入(术语:text conditioning)的支持,即在ResNet块之间添加一个注意力层。需要注意的是,ResNet块没有直接看到文本内容,而是通过注意力层将文本在latents中的表征合并起来,然后下一个ResNet就可以在这一过程中利用上文本信息。参考资料:https://jalammar.github.io/illustrated-stable-diffusion/https://www.reddit.com/r/MachineLearning/comments/10dfex7/d_the_illustrated_stable_diffusion_video/03.什么是negative prompt
?首先我们简单解释一下什么是 negative prompt。与正常的文本到图像 prompt 类似,Negative Prompting 表示你不希望在结果图像中看到的术语。这个强大的功能允许用户从原始生成的图像中删除任何对象、样式或异常。尽管 Stable Diffusion 以人类语言的形式接受被称为 prompt 的输入,但它很难理解否定词,如「no, not, except, without」等。因此,用户需要使用 negative prompting 来完全控制 prompt。再就是关于 prompt 权重的问题。Prompt 权重是 Stable Diffusion 支持的一项技术,可以让用户精细地控制他们的 prompt。使用 prompt 权重,用户可以告诉 Stable Diffusion 哪里应该多关注,哪里应该少关注。例如 Prompt :柴犬和北极熊(占 0.7)的混合体。由于给北极熊赋予了更多权重,所以在输出图像中看到北极熊特征占主导地位。我们用 Stable Diffusion 2.0 来测试一下。先回到我的 VQGAN+CLIP prompt(参见:https://minimaxir.com/2021/08/vqgan-clip/),看看它生成的达利风格的赛博朋克森林是个什么样子:prompt:cyberpunk forest注:达利是西班牙超现实主义画家,代表作品有《记忆的永恒》等。达利代表作品《记忆的永恒》。假如你想删除树或某种颜色(如绿色),那么这两者(trees、green)就是在 negative prompt 中要写的内容。例如下图中,prompt 为「cyberpunk forest by Salvador Dali」;negative prompt 为 「trees, green」。 prompt:cyberpunk forest by Salvador Dali;negative prompt: trees, green虽然充斥着大量超现实主义赛博朋克隐喻,这依然是一片森林。从理论上来说,要改进上述图像,一个很流行的技巧是纳入更抽象的不良图像概念,如模糊和马赛克。但是,这些 negative prompt 是否比其他“成分”(如 4k hd)更好呢?negative prompt 如何与那些 positive promt addition 相互作用?我们来进一步实际测试一下。04.怎么玩Stable Diffusion
?对于刚接触Stable Diffusion不久的用户而言,通常会存在以下一些痛点:1. 怎么玩?刚了解不久,这玩意到底应该怎么玩呢?2. 不好玩?会玩一点了,但出图的效果也就那样吧?3. 玩不转?比较会玩了,它还有啥有趣的功能应用?对于用户以上的痛点,本文将结合具体的案例进行针对性解答,为深感迷茫的你指点迷津。1.先下载下载软件+模型,支持win/machttps://muhou.net/235195.htmlstable-diffusion-webui 的功能很多,主要有如下 2 个:文生图(text2img):根据提示词(Prompt)的描述生成相应的图片。图生图(img2img):将一张图片根据提示词(Prompt)描述的特点生成另一张新的图片。注:本文只讲解文生图(text2img)功能,图生图(img2img)后续有机会再出文章,喜欢的请多多点赞关注支持一下
。1、文生图(text2img)在开始使用文生图之前,有必要了解以下几个参数的含义:参数说明Prompt提示词(正向)Negative prompt消极的提示词(反向)Width & Height要生成的图片尺寸。尺寸越大,越耗性能,耗时越久。CFG scaleAI 对描述参数(Prompt)的倾向程度。值越小生成的图片越偏离你的描述,但越符合逻辑;值越大则生成的图片越符合你的描述,但可能不符合逻辑。Sampling method采样方法。有很多种,但只是采样算法上有差别,没有好坏之分,选用适合的即可。Sampling steps采样步长。太小的话采样的随机性会很高,太大的话采样的效率会很低,拒绝概率高(可以理解为没有采样到,采样的结果被舍弃了)。Seed随机数种子。生成每张图片时的随机种子,这个种子是用来作为确定扩散初始状态的基础。不懂的话,用随机的即可。接下来我们来生成一张赛博朋克风格的猫咪图片,配置以下参数后,点击 "Generate" 即可:Prompt:a cute cat, cyberpunk art, by Adam Marczyński, cyber steampunk 8 k 3 d, kerem beyit, very cute robot zen, beeple
Negative prompt:(deformed, distorted, disfigured:1.3), poorly drawn, bad anatomy, wrong anatomy, extra limb, missing limb, floating limbs, (mutated hands and fingers:1.4), disconnected limbs, mutation, mutated, ugly, disgusting, blurry, amputation, flowers, human, man, womanCFG scale:6.5Sampling method:Euler aSampling steps:26Seed:1791574510注:提示词(Prompt)越多,AI 绘图结果会更加精准,另外,目前中文提示词的效果不好,还得使用英文提示词。下载安装后输入自定义prompt,也就是任意你想生成的图像内容,然后点击生成就好了。如果不满意,可以再次点击,每次将随机生成不同的图片,总有一些你感兴趣的。05.不好玩,出图效果鬼畜
?玩了好久了,用户的审美也进一步提升了,对AI绘画的要求也进一步提高,但是总感觉AI生成的图像也就那样,10张里面可能就1张能够上眼,其余的就有点辣眼睛了,比如下面这种:或是,这种(梅老板的球迷求轻喷):造成生成效果不理想的原因有很多,本文列举主要的三点原因,跟大家逐一分析。1. 没有选择正确的模型版本不同stable diffusion版本由于finetune了不同的数据,所以各有所长,下面简单罗列下:模型版本特性总结stable-diffusion-v1-4擅长绘制风景类画,整体偏欧美风,具有划时代意义;stable-diffusion-v1-5同上,但生成的作品更具艺术性;stable-diffusion-2图像生成质量大幅提升,原生支持768x768等;waifu-diffusion设定随机种子后,每次将生成相同的图像,无随机性,可方便复现;Taiyi-Stable-Diffusion-1B-Chinese-v0.1擅长中文古诗词绘画,整体绘画风格更偏中国风;Taiyi-Stable-Diffusion-1B-Chinese-EN-v0.1同上,但额外支持英文输入;Stable_Diffusion_PaperCut_Model擅长剪纸画;trinart_characters_19.2m_stable_diffusion_v1擅长动漫角色绘制;trinart_derrida_characters_v2_stable_diffusion擅长动漫角色绘制,出图效果更稳定。更多第三方模型请参考其他文章,本文不多做介绍。从上可以看出,不同版本的AI绘画各有所长,使用时可以挑选合适的版本进行使用。2、下面列举下模型文件使用方法眼尖的你可能发现了,上面截图里左上角 Stable Diffusion checkpoint 的值怎么跟之前截图里的不一样?这是因为我换了一个模型文件,还记得前面提到那个将近 4 个 G 大小的模型文件(v1-5-pruned-emaonly.safetensors)吗?那是 stable-diffusion-webui 的默认模型文件,用这个模型文件生成出来的图片比较丑,因此我换了另一个模型文件。模型文件下载的网站几个,比较出名的就是 civitai,这上面共享的都是别人训练好的模型。模型文件下载地址:civitai:https://civitai.com/默认的 v1-5-pruned-emaonly:https://huggingface.co/runwayml/stable-diffusion-v1-5/tree/main根据你要生成的图片风格(比如:动漫、风景),挑选合适的模型查看,前面那个文生图的例子,使用的就是这个 Deliberate 模型,直接点击 "Download Latest" 即可下载该模型文件。注:模型文件有 2 种格式,分别是 .ckpt(Model PickleTensor) 和 .safetensors(Model SafeTensor),据说 .safetensors 更安全,这两种格式 stable-diffusion-webui 都支持,随意下载一种即可。将下载好的模型文件放到 stable-diffusion-webui\models\Stable-diffusion 目录下:放置好模型文件之后,需要重启一下 stable-diffusion-webui(执行 webui-user.bat)才能识别到。这些模型文件一般会附带一组效果图,点击任意一张,就可以看到生成该效果图的一些参数配置:把这些参数配置到 stable-diffusion-webui 中,点击 "Generate" 就可以生成类似效果的图片了。注:因为 AI 绘图带有随机性质,所以生成出来的图片跟效果图不一定完全一样。文生图功能有很多东西可以发掘,你可以用它来生成世界上独一无二的图片,而要用好文生图功能,提示词(Prompt)是必须掌握的重中之重,它是有语法规则的,具体接着往下看。2. 输入的prompt不够明确从模型的角度而言,它生成的图像和用户输入的prompt相关。但从用户的角度而言,AI虽然生成了相关的图像,但是生成的图像艺术性不佳(个人主观),不够惊艳,不具美感,有些有明显的细节错误,完全不是用户想要的。这个矛盾的根源来源于:用户潜在地带入了个人的审美(比较心理),希望AI生成的图像能更好看些,至少没有明显的绘画细节错误。但训练的数据里却没有告诉AI哪些图片才更好看,只是采用CLIP的对比损失,这样就注定了AI绘画的定位就类似搜索里的语义初召。正如引入强化学习的ChatGPT,经过pairwise排序学习后,模型才能更好地把握生成的质量,也就有了更惊艳的效果。所以,对stable diffusion改进引入排序学习后,相信AI绘画基本具备给生成的图像进行艺术性打分了,但至少目前还不行。使用AI绘画现阶段的建议如下:输入更加详细的prompt,让AI更加了解你具体想生成什么,想达到什么效果,也就是限制AI绘画的发挥空间,避免它随意乱发挥。不知道prompt奥妙的,可以参考下面这个网站,里面收集了各式各样的AI艺术绘画,喜欢的可以研究捣鼓下:3. TAG生成器https://tag.muhou.net(复制到浏览器打开)关于如何构思prompt提示语,可以从如下几个问题入手:你想要一张照片,还是一幅画(photo/painting)你想要什么内容,比如:人物,动物,还是风景(person/animal/landscape)需要什么样的细节,比如:环境,室内/室外/水下/太空(indoor/outdoor/underwater/in space)视角,正面/侧面/俯视(front/side/overhead)背景,纯色/星系/森林(solid color/nebula/forest)打光,柔光/环境光/环形光/霓虹(soft/ambient/ring light/neon)颜色调性,鲜活/暗黑/柔和(vibrant/dark/pastel)需要怎样的艺术风格,比如:3D渲染/电影海报/毕加索(3D render/movie poster/Picasso)观察者镜头选择,比如:微距/长焦(macro/telephoto)如何组织语言:把想画的内容和形式用只言片语一条一条列出来,而不是企图用一条完整通顺的话来描述只言片语的顺序很重要,越想强调的越放到前面提示语涉及哪些修饰形容角度:摄影(视角/主题类型/相机类型/镜头类型/用光)艺术(表现形式/媒体形式)艺术家(人像/景观/恐怖/二次元/科幻/游戏概念)插画(3D/各类风格/角色设计)情绪(各种正面的/各种负面的)审美特点(活力感/暗黑系/历史感)以上各角度可以混合使用提示语还涉及哪些特殊词组:HDR, UHD, 64Khighly detailedstudio lightingprofessionaltrending on artstationunreal enginevivid colorsbokehhigh resolution scansketch/paintingstable diffusion 重点参数解析:CFG(classifier free guidance),数字越大越贴近提示语的描述step count,合适为佳,并非越大越好,需要测试seed,初始随机噪声值,设定同一seed,可以复原已出图片;注意某些seed值与特定提示语配合很好,更容易出效果如何优化提示语权重使用 ( ) 增强模型对特定词语的关注,使用 [ ] 减弱其关注多以使用多个 () 或 [],比如:((( )))、[[ ]] 等也可以使用 (word:1.5)、(word:0.25) 的方式增强或减弱某个词语的权重如何混合两个提示词提示编辑允许您开始对一张图片进行采样,但在中间切换到其他图片。其基本语法为 [from:to:when]比如:a [fantasy:cyberpunk:16] landscape,16步之前是 a fantasy landscape,16步之后是 a cyberpunk landscape比如:a [mountain:lake:0.25],假定sampler有100步,则前25步是 a mountain,后75步是 a lake补充信息提示语长度,旧版的 stable diffusion 有效token长度只有75,简单理解,只能支持70个左右的单词数量,新版的移除了token长度限制,但总体而言,不宜用特别长的提示语4. 生成的参数未调好一般生成都是有些参数可以调节的,比如:生成的图像高度(Width)和宽度(Height),生成迭代步数(Steps),图文相关性(CFG Scale),采样算法(Sampler),随机种子(Seed)等。TT-SD的生成参数调节:InvokeAI的生成参数调节:参数总结Steps-生成迭代步数一般取50即可,若采样算法选DPMSolve++,此处取25就可取得50步的效果;CFG Scale-图文相关性一般在6~20之间,太高了的话生成的艺术性太差,可以多设置看看;Sampler-采样算法不做推荐,针对不同需求可以多试试;Seed-随机种子设定随机种子后,每次将生成相同的图像,无随机性,可方便复现;Width-生成的图像宽度一般取512就好了,不建议1024x1024的大图,可以upscale实现高分辨重建;Height-生成的图像高度一般取512就好了,不建议1024x1024的大图,可以upscale实现高分辨重建;06.诀窍小结诀窍:选择正确的stable diffusion版本 + 输入合适的prompt + 生成参数调节 + 三分运气总的来说,就算比较了解AI绘画,也几率会出残图,所以还看三分运气了,不想看运气的,每次批量生成10张+,从中选几个好的就完事了。迈入这个境界,用户已经对AI绘画有了初步的理解和掌握,也能根据调整自定义的prompt生成不错的样图。当然了,人对艺术的追求是无止境的,用户会苛求更完美的作品,同时也会衍生一系列其他的需求,比如:它能不能对已有的图片进行修改,进行风格迁移,或者说对图片进行变脸等有趣应用。}
最近比较痴迷于AI绘画在本地部署了前沿的 NovelAI 与 StableDiffusion AI绘画模型 这几天用自己的显卡跑了这些模型并做了很多测试,AI出图的效果非常惊艳但鉴于很多人对AI绘画不了解,甚至对其有误解,于是我写下了这篇非常详细的并且通俗易懂的关于现阶段AI绘画的文章你想知道的有关AI绘画的前沿内容,以及我对AI绘画的伦理问题思考,均在↓一.AI绘画的历程AI绘画其实在很早以前就出现了,只不过那时候的效果不尽人意。而在最近几年出现了一个名为‘’概率去噪扩散算法‘’,在这种算法的加持下,各种AI绘画模型才开始开始层出不穷,但是这些早期的AI绘画模型要么被大公司长久把持(例如OpenAI公司,他们早在2021年就推出了Dall-E1AI绘画模型,并未开源),要么生成图画的效果不佳,还达不到破圈能力。直到Stability.ai公司于2022年8月份发布并开源了Stable Diffusion AI 绘画模型,这才彻底让AI绘画热潮爆发!Stable-Diffusion 免费、生成速度又快,每一次生成的效果图就像是开盲盒一样,需要不断尝试打磨,所以大家都疯狂似的开始玩耍,甚至连特斯拉的前人工智能和自动驾驶视觉总监 Andrej Karpathy 都沉迷于此Stable Diffusion采用的底层算法与普通的扩散算法不同,它在其外面还套了一个VAE模型,因此达到了更快的画图速度和更高的画图质量而到了2022年10月份,基于Stable Diffusion的二次元AI绘画模型NovelAI横空出世,NovelAI强大的二次元插画绘图能力,使其一跃成为全球最好的动漫插画生成模型总的来说,目前比较前沿的AI绘画模型有:Stable Diffusion,Disco Diffusion,Midjourney,DALL-E 2,NovelAI。前两者的模型是开源的,而后三者未开源未开源意味着我们普通人要想使用这些AI模型绘画的话,必须要去他们的官网排队付费申请使用资格最近引发很大争议的《太空歌剧院》就是由Midjourney所作太空歌剧院国内的AI绘画小程序也是在最近8,9月份开始兴起的,他们使用的模型就是主要就是已开源的Stable Diffusion和Disco Diffusion,大家可能也尝试过,但效果并不怎么好而且还收费,效果不好是很正常的,因为普通用户输入的prompt没有经过专业训练,不规范,这个prompt后文会详细说明不过就在最近,发生了一件有趣的事,未开源的二次元AI绘画模型NovelAI就在发布的那一天被一个黑客窃取,这个泄露的AI模型也就被公开在互联网上了,我也有幸在很早就拿到了这个模型并在本地部署,做了很多测试,后文会详细说明NovelAI。二.AI的简单原理AI绘画原理(图片来源于网络)鉴于很多人没有深入了解过人工智能,所以就简单的讲一讲人工智能中的神经网络,不讲AI绘画的具体原理,因为本人了解的也不是很深入,而且面对大量的英文文献和数学符号,估计你也没有那个耐心,也听不懂。神经网络示意图神经网络是很多人工智能最最最基本的架构,它模仿的就是我们人类大脑中的神经元,我们人类画师是如何学习绘画的?那可是通过长久的绘画练习,大量的临摹,日复一日,年复一年才训练出来到。而神经网络也类似,它也需要学习,程序员把数以千亿的人类历史上的画作输入给神经网络,让其自我学习,并从中寻找规律,从而形成AI自己的绘画模式,这需要极其庞大的算力,不是一般的设备可以做到的。于是很多人就认为AI 作画是“对人类画作简单拼接,就是缝合怪,甚至可能称得上抄袭”。不过几十年前AI确实是这样干的,但现在的AI已经不可同日而语了还有一种观点是“AI 很不擅长处理细节,比如手部、腿部、表情/发型/服装细节,AI 不能完美理解语义”,这一点是对的,这些问题长久以来都是 AI 绘图最大的局限性之一。但需要注意的是,随着训练集规模与模型规模的迅速增长,这些问题也在肉眼可见地被快速解决。三.AI绘画教程AI绘画渠道目前有三种渠道:国内的AI绘画软件/小程序/app(效果鲜有达到Midjourney水准的工具,但也有部分内置强大算法的工具)去那些前沿AI绘画模型发布的官网(因为都是外国公司,网站访问速度较慢,有些网站需要有测试邀请码,大都需付费)本地拉取github上已开源AI绘画模型并本地部署(门槛较高,显卡要求较高)各大官方网站如下:Stable Diffusion官网:https://beta.dreamstudio.ai/dreamNovelAI官网:https://novelai.net/Midjourney官网:https://www.midjourney.com/home/ 这些网站无需翻墙如果想要在自己电脑上面部署,还想有好的出图效果的话,显卡要求不低于3060ti,显存不低于6G,显卡越强,出图的效果也越好。而且现在网络上的AI绘画模型部署教学非常多,感兴趣的同学完全可以自己去尝试如何查看自己电脑详细配置:按住win+R键唤出运行对话框,在其中输入“dxdiag”回车即可AI绘画教学这些AI绘画最基本的两种玩法是text-to-image(以用户输入的文字生成图片)和image-to-image(以图生图)先说text-to-image:用户需自己输入一段文字(通常称用户输入的内容为prompt或tag),AI就会根据用户输入的文字来生成图画这个prompt可是非常有讲究的,举个例子,比如你要生成一个漂亮的女孩,你可不能只简简单单输入 ‘A beautiful girl’,这样生成的图片不会好看的,你想想看,你要AI画的女生是长发,短发,单马尾,还是散发?有发饰,眼镜吗?是全身照,还是某个部位特写?是正面,还是侧面,背面?是什么风格?速涂,草稿,线稿,油画,设计图,概念设计,速写,立绘还是厚涂?2D还是3D?光效是什么样的?是全局光照,柔和光照,边缘照明,体积照明还是电影照明?......不难看出,要想熟练的使用AI绘画画出惊艳的画作,需要使用者有较高的美术素养不过在这里要给大家提到一款最近我使用得最频繁的一款AI绘画工具——“一键AI绘画”,这款软件可以说完全不需要绘画功底,而且输入的prompt也不需要特别讲究~以下为“一键AI绘画”生成的优秀画作以及对应的prompt:美丽的树枝,温和的仙雾,白红色的梅花,梅花,山谷,雪,花瓣清晰,花瓣上的雪,现实,真实,像爱的感觉,复杂的细节处理,高清,梦幻童话王国高清中景镜头,富豪,舞,蛇瞳,脸色苍白,发光的头发,圈形耳环,实验室外套,闪亮袜子,机械角,绑在十字架上,公主抱,月亮,泡泡龙,摄影法精美CG,高清,高画质,黄色背景围绕,金色荷花背景,五官精致,精美长发,雾霾灰色头发,光亮肤质,淡紫色的大眼睛,水嫩小嘴,面部聚焦,小雏菊花枝,浅黄色汉服,8k,丁达尔效应当然,不要以为制作这样精美的图片很难,实际上操作非常简单;打开软件后找到【特效工具】中的【AI绘画】功能,随后在文本框内输入想要的画面描述,选择画作模型和调整画布尺寸、数量等设置即可;生成的效率和质量都非常不错,即便是输入同样的prompt也能生成截然不同的画作~image-to-image就是用户上传一张图片,然后AI根据用户上传的图片和用户输入的prompt进行绘制,举个实用的例子,你可以只画一个线稿,然后让AI在你的线稿上的基础上继续作画,达到成品的效果详细的prompt教程可以参考以下网站(我也收集很多prompt库,可以私聊我获取哦):https://www.zhihu.com/question/558019952/answer/2710009035https://aitag.top/以下为Disco Diffusion生成的优秀画作以及对应的prompt:{{masterpiece}},highly detailed,best quality,highres,{original},A field of flowers at sunset,by greg rutkowski and thomas kinkade, Trending on artstation.yellow color scheme.A beautiful painting, in the natural morning light of blue sky and white clouds, bright daylight passing through the gaps in the leaves leaving shadows on the ground, a shimmering lake in the distance, and foggy mountains in the background,By Makoto ShinkaiPort, church, smoke, sunset以下为我最近用Stable Diffusion生成的画作以及对应的prompt:A highly detailed matte painting of Garden of Eden,studio ghibli, volumetric lighting, high contract, octane render, masterpiece, intricate, epic wide shot, sharp focus,by Makoto Shinkai, artgerm, wlop, greg rutkowski{{masterpiece}},highly detailed,best quality,highres,original,An old man with a straw hat and a raincoat was fishing alone in a canoe on a cold winter lake. Snow was flying in the sky,by Artgerm,Greg Rutkowski,oil painting{{masterpiece}},highly detailed,best quality,highres,original,A snowy Chinese village,winter,sunny day, Thomas kinkade, Greg Rutkowski, artstation,sunlight,brightmasterpiece,best quality,highres,original,Portrait of 1 girl with side_ponytail hair
and messy_hair, wearing a small crown and gorgeous blue aristocratic clothes, a bust,by Artgerm,Greg Rutkowski,Alphonse Mucha,deco art,goddess,garce,elgent,wings,fantasy,line art,rimming light,close-up,medium shot.{{masterpiece}},highly detailed,best quality,highres,original,A huge medieval ship was adrift in the sea. The clouds were thick in the sky. There were seagulls perched on the mast,oil painting四.二次元AI绘画模型NovelAINovelAI的出现在二次元的产业应用上是一个非常强大的存在,生成的效果好于中流以下的画师,之前需要找画师去画的一些插图基本上都不需要了,这个不仅可以给一些轻小说做角色设计图,场景图,而且对于那些独立的游戏制作人来说也是可以大幅的降低成本以下为我最近用NovelAI生成的作品以及对应prompt:masterpiece,highly detailed,best quality,highres,original,three views from front, magazine cover,official art,{character sheet},White hair, wearing blue flower shaped hair ornaments, wearing medieval armor, skirt armoran extremely delicate and beautiful girl, wide view, cold attitude, red pupils, short hair, white hair, multicolored hair, black jacket tie, hair ornament hair clip, she looks very relaxed, side face, white atmosphere, 1girl, {{{ink wash painting}}}, white background, clean blackwhite clothesextremely detailed CG unity 8k wallpaper,{{masterpiece}},decorations, embellishments, best quality, illustration,a girl with butterfly shaped hair ornaments,Long white hair,messy_hair,hair between eyes,red pupil,wearing Chinese cheongsam and white scarf,hold head with
hands, sit by the window, and look out of the window,cinematic angle,muted colors,{{elegant}},{{{impasto}}}{{masterpiece}},{best quality},{highres},solo, {city},a girl with crystal yellow eyes and animal ear surrounded by {many} {feathers} {in tears},night with bright colorful lights with many clouds and clouded moon in the detailed sky,{a lot of glowing particles},medium_breast solo focus,1 girl,whitedress,Holding a basin of sunflowers in both hands, wearing a straw hat, sunshade hat, and long black hair,straight-on,cinematic angle,acrylic paint,looking at viewer,expressionless,delicate face and eyes,Standing in a sea of flowers, the blue sky is full of clouds, and birds are flying in the sky,hair ribbon,summer,{{masterpiece}},highly detailed,{best quality},highres,original,sunlight,decorations, embellishments,{{illustration}},muted colors,{{{impasto}}}a girl with butterfly shaped hair ornaments,high ponytail white hair,messy_hair,hair between eyes,red pupil,wearing Chinese cheongsam and white scarf,{{elegant}},lipstick,longeyelashes,mole under eye, beautiful detailed eyes,white gloves,bracelet,full body,{character design}, concept art,{sketch},official art,clothing design,{character sheet}{masterpiece}, {best quality} , {{detailed face, focus on face, angle of inclination}}, {{wallpaper 8k CG}}, {{colorful oil painting}},Concept Art, A boy with black and white hair,top hat, steampunk white clothes, pocket watch, beautiful and aesthetic, intricate light, Rembrandt lighting, Orange and blue lights,portrait,close-up,{{elegant}}因为我个人能力有限,就在网上找了几张大佬用NovelAI做的图B站up主:夜歩空B站up主:夜歩空B站up主:日式茶泡饭知乎作者:ssssoRa关于NovelAI有一个很有意思的用途,当时程序员们在训练这个AI模型的时候,给它投喂的人类插画中有非常之多的18X内容的动漫图片,这也就是说,NovelAI能画完全定制的涩图。你能想到的词汇有多下流,NovelAI就能画出的图片就有多下流。不仅如此,NovelAI还收录的很多知名日本动漫角色,只要在prompt输入角色名就行说到这里你是不是产生了一些邪恶的想法,但不得不说,你的想法完全可以通过NovelAI实现,这些图片绝对过不了审核,就不放了五.AI绘画伦理问题目前AI绘画的作品没有明确的版权,这方面也没有相关法律,所以图像的创作者可以任意复制、修改、分发自己创作的作品,甚至用于商业目的,不需要征求任何许可。来源于网络来源于网络但是你在输入的的提示词中,涉及到风格特别鲜明的艺术家或者商业作品,那么渲染生成的图像会呈现出非常相似的风格,这样自然就会涉及到侵权的问题了。如果你想将图片用于商业目的,还是要谨慎,注意规避这些潜在的风险。现在很多人都对AI入侵人类艺术领域而感到担忧,这种担忧是完全没有必要的,一方面是因为他们缺乏基础的人工智能学术领域的知识,另一方面是他们被立场取代了思考。AI的概念早在上世纪50年代就被提出来了,但受制于当时的计算速度没有得到较大的发展,直到近十年出现的各种强大的计算机芯片/显卡的辅助下,AI才得以蓬勃发展,但它最终都会受限于硬件,而硬件取决于基本物理学,不知道你有没有发现,当前你我的生活之所以感到日新月异,仅仅只是信息互联网产业在迅速发展,实际上能源,动力,材料,半导体等领域,以及最重要的基础物理学的发展已经缓慢到接近停滞,百年前创造的量子力学,相对论当今仍然可以被定义为尖端物理学,今年的诺贝尔物理学奖也只是证明了量子纠缠确实存在。话说回来,经过我这几天本地测试的体验来说,AI绘画仅仅只是新时代产生的绘画工具,它的缺陷非常明显,AI绘画绝对取代不了人类画师,但凭借它快速的出图速率,精美的效果,它完全可以淘汰一些中底层的人类画师。闲鱼现状:AI绘画目前是一个全新的领域,值得每一个人去尝试,如果有一个留存在你脑海中已久的很想画又画不出来的插画场景,那么AI绘画应该是一个不错的选择!最后,我想以贡布里希的一句话作为结尾:没有艺术,只有艺术家}

我要回帖

更多关于 ue4用什么显卡效果好 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信