首页 > 其他分享 >一篇文章揭秘JetBrains的 AI 图形发展历程

一篇文章揭秘JetBrains的 AI 图形发展历程

时间:2023-11-09 11:07:03浏览次数:39  
标签:Diffusion AI Stable 使用 生成 图像 CPPN 揭秘 JetBrains

JetBrains 不断完善用作网站元素和发布图形的图稿创建方式,使命是将平面设计师从日常任务中解放出来,让他们能够专注于自己的核心能力 – 创造力,JetBrains 用于生成图稿的内部工具的历史大约开始于十年前。起初主要使用基于WebGL的工具,这些工具可以在浏览器中实时随机生成所有内容,下面的图像就是用这种方式创建的。

一篇文章揭秘JetBrains的 AI 图形发展历程_开发工具

一篇文章揭秘JetBrains的 AI 图形发展历程_jetbrains_02

2020年,JetBrains发布了第一款基于深度神经网络的工具,自那时起所有内容都在K8s GPU 集群中使用适用于本地和远程开发的 PyCharm 和 Datalore 生成,浏览器仅用于输入输出。 通过这种基于神经网络的方式,实现了更高程度的个性化,这让我们能够迎合设计师的需求,并且一直在努力改进。

以下图片使用组合图案生成网络(CPPN,上图)和 Stable Diffusion(SD,下图)制作而成, 本文将介绍这两种方式的技术细节,以及如何结合这两种方式来创造更精彩的设计。

一篇文章揭秘JetBrains的 AI 图形发展历程_开发工具_03

一篇文章揭秘JetBrains的 AI 图形发展历程_AI_04

使用神经网络生成的启动画面

CPPN:概述

CPPN是最简单的生成网络之一,它们只是简单地将像素坐标 (x, y) 映射到图像颜色 (r, g, b)。 CPPN通常使用特定的图像或图像集进行训练,不过当初始化正确执行时,随机初始化的 CPPN 会生成漂亮的抽象图案。

一篇文章揭秘JetBrains的 AI 图形发展历程_AI_05

CPPN 架构:像素坐标为输入,RGB 值为输出

利用早期内部版本生成器的使用数据,我们改进了算法以提高视觉质量。 除此之外,还通过引入多个虚拟参数略微扩展了 CPPN 的经典架构,因此现在CPPN 会将 (x, y, a, b, c, f) 映射到 (r, g, b),这个简单的更改允许我们引入一种易于使用(但有些不可预测)的方法来更改图像,如下所示。

一篇文章揭秘JetBrains的 AI 图形发展历程_IDE_06

通过更新虚拟参数 (a),对图片进行了略微更改

这些虚拟参数不一定是常量,例如我们可以将每个像素的虚拟参数 f 的值映射到此像素到图像中心的距离,这一技巧能够确保图像呈现圆形。或者我们可以将 f 映射到像素坐标的绝对值之和,这将产生菱形图案,这就是数学与艺术的真正结合!

一篇文章揭秘JetBrains的 AI 图形发展历程_开发工具_07

不同的函数 f(x,y) 会产生不同的图像图案

为了确保随机初始化的 CPPN 始终产生漂亮的设计,我们训练了一个推荐系统来预测给定的参数集是否会生成具有一定美感的图像。根据内部测试期间收到的用户反馈来训练算法,下图显示了随机初始化的 CPPN 创建的两个图像示例以及它们对应的“美感”分数。

一篇文章揭秘JetBrains的 AI 图形发展历程_IDE_08

预测 CPPN 图像的“美感”分数

CPPN:动画

当 CPPN 生成的图稿被转换成视频图形时,它们真正变得栩栩如生。 通过将虚拟参数 (a, b, c) 映射到任何闭合的参数曲线(在同一点开始和结束的曲线),可以创建任何所需长度的无缝循环动画!

一篇文章揭秘JetBrains的 AI 图形发展历程_AI_09

CPPN 动画视频的示例帧

曲线函数的选择至关重要,在平面圆上对虚拟参数添加动画是最简单的方式。 不过,它有一个缺点:当参数的符号发生变化(例如,从 0.01 变成 -0.01),而它具有较低的一阶导数值(在圆形轨迹的情况下为零)时,生成的动画通常会抖动。 为了解决这个问题,我们使用伯努利双纽线来确保虚拟参数的符号永远不会改变(见下图)。对于大多数动画帧,其中一个参数仅以增量方式更新,这使动画看起来过于简单,我们通过切换到随机样条函数解决了这个问题。 使用的轨迹越复杂,动画看起来就越丰富!

一篇文章揭秘JetBrains的 AI 图形发展历程_AI_10

CPPN 曲线函数示例

CPPN:色彩校正

还有一个更重要的细节:色彩校正。 CPPN(以及由此产生的图像)是随机生成的,但需要确保每个图像都使用我们的品牌颜色。 第一次迭代(在 2020 版本中使用)依赖于浏览器中的 SVG 重新着色(使用 feColorMatrix 和 feComponentTransfer),这种方式速度很快,因为重新着色在浏览器中进行,可以更新调色板,而无需在服务器端重新呈现图像。 不过实现起来却很棘手,因为有些调色板对于 feColorMatrix 和 feComponentTransfer 来说太过复杂,而且通常不可靠。经过大量实验后,我们发现最终的颜色会因浏览器和操作系统而异,以下是在 2020 年初进行的实验的一个示例,左边是在 macOS 上通过使用 Safari 的设置由早期版本生成器生成的背景的屏幕截图,右边是在 Ubuntu Linux 上通过使用 Google Chrome 的设置由生成器生成的相同背景的屏幕截图。 请注意细微的亮度差异,应用的后期处理效果越多,亮度差异就越明显。

一篇文章揭秘JetBrains的 AI 图形发展历程_IDE_11

亮度差异示例

另一个示例是 MDN 的 feComponentTransfer 示例,这一次两个图像都在同一台机器上使用Ubuntu Linux 和 Google Chrome 制作,但在左侧的屏幕截图中,硬件加速被禁用。存在明显的色彩差异,尤其是在表查找示例之间。 因此尽管速度非常快,但这种色彩校正的方式非常不一致。

一篇文章揭秘JetBrains的 AI 图形发展历程_IDE_12

色彩差异的示例

目前的方式(从 2021 年开始使用)更直接,以 32 位灰度来呈现源图像,这意味着CPPN 只返回单个明亮度值,而不是 RGB。 然后将每个像素映射到具有预计算理想 RGB 值的查找表,这种方式速度较慢,但会产生像素级精确的结果。

一篇文章揭秘JetBrains的 AI 图形发展历程_AI_13

使用灰度图像进行色彩校正的示例

一篇文章揭秘JetBrains的 AI 图形发展历程_IDE_14

使用 SVG 重新着色的 2020.1 启动画面

将CPPN 的另一个显著特性是,得益于其简单的架构,可以轻松地将其计算图转换为 GLSL 代码。 在动画视频就绪之后,我们可以将其导出为 WebGL 片段着色器,然后直接在浏览器中运行。

驾驭 Stable Diffusion

Stable Diffusion 提供了高水平的广泛应用和视觉保真度,这使其成为图稿生成器的完美支柱。为了使 Stable Diffusion 适合用作发布图形源,必须遵守以下标准:

  • 图像应遵循品牌调色板。
  • 不允许出现伪影或瑕疵(如坏像素)。
  • 应该易于使用某种特定风格(抽象平滑线条)。
  • 应该需要很少或不需要提示,这意味着它应该提供易于访问且直观的控制。

虽然始终存在改进的空间,但目前已经满足了所有上述要求,最新的图像已公开,所有技术细节如下。

一篇文章揭秘JetBrains的 AI 图形发展历程_开发工具_15

使用 Stable Diffusion 创建的 2023.1 启动画面

为了产生始终符合所有标准的结果,使用设计师提供的各种参考资料对 Stable Diffusion 进行了微调,下面是一些根据不同风格生成的图像示例。

一篇文章揭秘JetBrains的 AI 图形发展历程_jetbrains_16

一篇文章揭秘JetBrains的 AI 图形发展历程_jetbrains_17

一篇文章揭秘JetBrains的 AI 图形发展历程_开发工具_18

通过微调 Stable Diffusion 获得的实验风格

在深入研究微调过程的技术细节之前,先来看看 Stable Diffusion 的内部原理。 它在本质上由三部分组成:CLIP 文本编码器(用于将文本编码成多模态嵌入向量空间的微型 Transformer 模型),将图像压缩到隐空间以及从隐空间解压缩的变分自动编码器,以及降噪 UNet。

一篇文章揭秘JetBrains的 AI 图形发展历程_AI_19

Stable Diffusion 的架构,图像来源:www.philschmid.de/stable-diffusion-inference-endpoints

生成过程大致如下:

  1. 将提示文本编码成一个嵌入向量,即一个 77×768 浮点数组。
  2. 随机生成图像的隐式表示,它可以是纯高斯噪声或初始图像的带噪表示。
  3. 以给定的步数,将编码的隐图像和编码的文本反复传递给降噪 UNet。
  4. 在对隐图像降噪后,将其传递给解码器,从而将其解压缩为标准的 RGB 图像。

一篇文章揭秘JetBrains的 AI 图形发展历程_AI_20

降噪过程, 图像来源:jalammar.github.io/illustrated-stable-diffusion/

Stable Diffusion 的好处在于,可以用很少的数据对其进行微调,并获得很好的结果! 作为“副作用”,数据高效的微调方法在计算上也是高效的,这使它变得更好。

最直接的微调方式是文本反转 (p-tuning),冻结所有权重,例如 UNet、VAE 和文本编码器(这意味着不会在训练期间更新它们),并且只为文本编码器的每个嵌入向量训练一个新词。 因为每个嵌入向量只训练一个新词,只有 768 个可训练参数!

一篇文章揭秘JetBrains的 AI 图形发展历程_AI_21

文本嵌入和反转过程概述。 图像来源:textual-inversion.github.io/

这些自定义嵌入向量是可组合的,这意味着最多可以在单个提示中使用 77 个嵌入向量。 最重要的是它们很容易训练,在单张 RTX 4090 上需要大约 2 个小时。以下是训练过程的示例,用于生成以下两个图像的提示均为“digital art in the style of ”,其中“”是我们正在训练的新词嵌入向量。 随着执行的训练步骤的增多,图像会发生演变,新的视觉风格会变得越来越明显。

一篇文章揭秘JetBrains的 AI 图形发展历程_开发工具_22

使用文本反转经过 500 和 3000 个训练步骤后生成的图像

另一种热门且高效的微调方法是低秩自适应,简称 LoRA。 LoRA 的关键思想类似于文本反转,只是这次除了冻结权重之外,还通过在 UNet 内的注意力层中添加小的适配器层来引入新权重。

一篇文章揭秘JetBrains的 AI 图形发展历程_IDE_23

一个Transformer层内的LoRA方法示意图,图像来源:adapterhub.ml/blog/2022/09/updates-in-adapter-transformers-v3-1/

与文本反转相比,这种方式可以从微调数据中捕获更复杂的图案(例如,“AI 肖像”应用会使用用户的面孔训练适配器层),但它使用的资源略多,最重要的是,多个 LoRA 无法组合。 在具体用例中,我们发现 LoRA 在使用 Stable Diffusion XL 时最有效。 相比之下,在早期版本的 Stable Diffusion(1.4、1.5 或 2.1)中,文本反转可以实现更广泛的应用。

一篇文章揭秘JetBrains的 AI 图形发展历程_IDE_24

使用 LoRA 经过 200 和 1000 个训练步骤后生成的图像

结合 Stable Diffusion 和 CPPN 的优点

使用 Stable Diffusion 的标准之一是需要确保生成的图像遵循某个特定品牌的调色板,这正是 CPPN 的用武之地! 在使用 Stable Diffusion 生成图像之前,使用自己的梯度生成器(如上所述)利用 CPPN 生成图像,以像素级精度应用所需的颜色,然后使用 VAE 对其进行编码并使用高斯噪声进行混合。 UNet 使用生成的隐图像作为其起点,从而保留原始色彩和构图。

一篇文章揭秘JetBrains的 AI 图形发展历程_开发工具_25

一篇文章揭秘JetBrains的 AI 图形发展历程_IDE_26

CPPN → Stable Diffusion 流水线

在 CPPN 图像就绪后,也可以直接在浏览器中对其进行编辑,以实现我们所能想象的任何形状和设计!

一篇文章揭秘JetBrains的 AI 图形发展历程_IDE_27

具有手动编辑 CPPN 图像的 CPPN → Stable Diffusion 流水线

最后,使用“CPPN → Stable Diffusion”流水线生成多个图像后,就可以用这些图像来训练另一个 CPPN,并将它们转换为动画,如上面的 CPPN:动画部分所述!

希望这篇关于我们的 AI 图稿发展历程的深入介绍对您有所启发!

标签:Diffusion,AI,Stable,使用,生成,图像,CPPN,揭秘,JetBrains
From: https://blog.51cto.com/u_14937210/8273794

相关文章

  • 【misc】[HNCTF 2022 Week1]lake lake lake(JAIL) --沙盒逃逸,globals函数泄露全局变量
    查看附件内容这道题的逻辑就是可以让你输入1或者2,进入各自的函数去执行功能func函数:deffunc():  code=input(">")  if(len(code)>9):    returnprint("you'rehacker!")  try:    print(eval(code))  except:    pass......
  • 【misc】[HNCTF 2022 Week1]python2 input(JAIL) --沙盒逃逸,python2环境
    查看附件,这次有点不太一样,这次是python2的环境只有一个input函数,但是python2的input函数可是不太一样:在python2中,input函数从标准输入接收输入,并且自动eval求值,返回求出来的值在python2中,raw_input函数从标准输入接收输入,并返回输入字符串在python3中,input函数从标准输入接收输......
  • 【misc】[HNCTF 2022 Week1]calc_jail_beginner_level2.5(JAIL) --沙盒逃逸,breakpoint
    查看附件内容这道题过滤挺多重要的函数,比如exec,input,eval,还对长度做了限制,这里了尝试了help函数,但是最后一步!ls没通,接着考虑breakpoin函数:Python中内置了一个名为breakpoint()的函数,在Python3.7中引入,用于在调试模式下设置断点。使用breakpoint()函数会停止程序的执行,并在......
  • 【misc】[HNCTF 2022 Week1]calc_jail_beginner_level3(JAIL) --沙盒逃逸,help函数
    还是先看附件内容这里对字符串长度进行了进一步的限制,长度不能大于7,这里可以输入help(),help函数:help()函数是Python的一个内置函数,用于获取关于模块、函数、类、方法等的帮助信息。当你在交互式命令行中使用help()函数时,它会打开一个交互式帮助系统,让你能够浏览相关主题和......
  • ai识别图片文字,通过技术如何实现
    AI识别图片文字的技术主要是通过光学字符识别(OCR)来实现的。以下是一个简单的流程:预处理:这是第一步,主要是为了改善图像质量,以便更好地识别文字。预处理可能包括灰度处理、二值化、去噪、平滑处理等。文本定位:在这一步,AI需要确定图像中的文本区域。这通常通过边缘检测、形态学......
  • AI技术怎么替换人脸的,举个详细的例子
    人脸替换技术通常涉及到一系列复杂的计算机视觉和机器学习步骤,尤其是在使用深度学习方法时。以下是一个简化的例子,展示了如何使用深度学习进行人脸替换:步骤1:数据收集首先,你需要收集大量的面部图像作为训练数据。这通常包括两组图像:一组是源面部(想要替换的面部),另一组是目标面部......
  • ai换脸可以突破人脸识别吗,有没有技术可以攻破
    人工智能(AI)换脸技术,通常被称为“Deepfakes”,可以生成几乎无法与真实面部区分开的面部图像或视频。这种技术的确有可能被用来欺骗人脸识别系统,至少是那些不具备足够先进检测机制的系统。以下是一些可能被用来攻破人脸识别系统的技术和方法:1.制作高质量的Deepfakes如果AI生成的换......
  • ArrayList的contains()方法的性能问题及优化方法
    背景今天定位一个接口耗时问题,通过日志定位到在数据库查询完毕后,中间一段逻辑耗时很长有十几秒的样子,发现是循环中使用ArraysList中的contains方法,当循环数量级变得很大时,执行时间变得不可控。代码示例//有5万个门店List<Store>storeList=storeMapper.se......
  • 【misc】[HNCTF 2022 Week1]calc_jail_beginner(JAIL) --沙盒逃逸
    这是一道python沙盒逃逸的题目:沙箱逃逸:就是在给我们的一个代码执行环境下,脱离种种过滤和限制,最终成功拿到shell权限的过程,其实就是闯过重重黑名单,最终拿到系统命令执行权限的过程,这里不理解没关系,多做两道题就知道了,老实说国内的沙箱逃逸的题不是很多,而且大多都是面向新手的?对......
  • How To Solve The Problem Of Air Pollution
    HowToSolveTheProblemOfAirPollutionThereport"China'sCarbonNeutralityandCleanAirSynergyPathway(2023)"waspublishedinBeijingonNovember1.ThereportcomprehensivelyshowsthecurrentstatusofChina'scarbonneutrali......