轻薄本如何玩转AI绘画?整合包与安装教程:Stable Diffusion WebUI OpenVINO加速方案
的全称是“Open and ”(开放式视觉推理和神经网络优化),是由英特尔公司开发的一个免费工具包,有助于从框架优化深度学习模型,并使用推理引擎将其部署到英特尔硬件上。
它常被开发者使用,用于快速开发应用程序和解决方案,以解决各种与AI深度学习相关的任务(包括人类视觉模拟、自动语音识别、自然语言处理和推荐系统等),可扩展跨英特尔® 硬件的计算机视觉和非视觉工作负载,从而最大限度地提高性能。
这个工具套件有两个版本: 工具套件(由开源社区支持)和 Intel of 工具套件(由 Intel 支持)。该工具包是跨平台的,并且可以在 2.0 版本下免费使用,支持在英特尔平台上采用一次写入、随处部署的方法进行深度学习部署,包括CPU、集成GPU、英特尔 VPU和FPGA。
来源: & ™ 工具套件概述的官方文档
在AI绘图方面,大家应用最为广泛的由开发的 WebUI,现在就可以通过英特尔® 分发的 ™ 工具套件在英特尔 CPU 和 GPU(集成显卡和独立显卡)等硬件上加速运行,相较于以往只能依靠CPU出图的效率有非常大的提升。
这篇专栏里介绍的方案,便是旨在为使用英特尔硬件(尤其是使用搭载英特尔处理器的轻薄本)的用户,提供更高效的部署、应用方式。
的 WebUI 分支
适用范围
使用英特尔(Intel)处理器且不含独立显卡的笔记本/台式机用户是加速的最大受益者。如果处理器搭载了高性能的集成显卡(如Xe锐炬核显),加速效果会更为明显。
轻薄本用户请出列!
根据实际上机测试的结果——
在移动端:使用加速后的i5-(+Iris Xe核显)上,最快仅需24秒左右就可以完成一张512*512像素的图片绘制。作为对比,加速前使用纯CPU绘制需要花费约112秒。
在桌面端:使用加速后的i9-上,最快仅需32.5秒。作为对比,加速前使用纯CPU绘制需要花费约100秒。
然而,目前阶段(2023年11月)的加速仍具有一定的局限性,例如需要独立调用脚本、单独编译模型时间较长,以及无法兼容LoRA、等对U-Net进行操作的扩展。
除了这些以外,WebUI的大部分功能,如基本的文/图生图,后期处理,提示词语法等都是可以使用的。插件兼容性方面暂未做过多测试。
(如果没了LoRA和就没有跑图的动力了,那就再等等吧!)
如果你使用的是Intel的独立显卡(如ARC锐炫独立显卡),可以使用IPEX(Intel for )提供的另一套方案进行加速。目前,已有开发者针对这一套方案制作了使用体验非常完善的本地整合包,可以查看Up主@的这一期视频:
想要使用加速AI绘图,你需要在你的电脑上完整安装“版”的 WebUI,并在进行文生图、图生图时,调用脚本中的“ with ”。下面是详细的操作步骤:
整合包
如果你是一位对AI绘画了解不多的个人用户,推荐使用整合包在Intel设备上运行 WebUI。
这里,感谢@英特尔中国 的工程师提供的WebUI封装应用程序。你可以通过下面的链接下载一个包含.exe文件的安装程序。
提取码:0tld
除了 ,还有一个大语言模型的包,感兴趣的朋友也可以下来玩玩
完成以后,双击 .exe 进行安装。选择一个空间较大的盘符进行安装即可。
安装完毕后,桌面上会出现一个快捷方式,打开即可运行程序。完成加载以后,点击“立即交互”,即可进入WebUI界面。
开启加速脚本
使用WebUI即可正常出图作画。然而,此时WebUI仍是在使用纯CPU进行计算(CPU:我顶不住啦!),和正常WebUI并无太大区别。
如果想要通过释放它的潜力,你需要在文生图/图生图界面的最下方,开启“通过加速”的脚本——
开启脚本后,会出现如下所示的一系列选项。
选择一个模型参数()。一般基于SD1.5的微调模型选择V1-.yaml,图生图重绘则选择V1–.yaml。
选择加速设备。如CPU带有核显(比如Iris Xe),优先选择用GPU加速;如CPU无核显(比如后缀为KF的处理器),则选择用CPU加速。
下方两个复选框建议全部勾选。下面的一系列采样方式是经过验证较适合的,在其中选择的采样方式会覆盖WebUI里的参数选项。
上:覆盖主UI中的采样选择(建议使用以下采样方法,因为只验证了以下采样方法)
下:将编译后的模型缓存到磁盘上,以便在随后的启动中更快地加载模型(推荐)
设置完毕后,点击生成即可。
真 · CPU加速
一些注意事项
使用脚本加速时,它会将你在WebUI里设置的大模型进行一次“编译”来获取最佳的运行性能。这个编译会在第一次运行时进行,因此切换模型/采样方式后的第一次推理(或预热推理)会比随后的推理慢。
(根据实测,第一次编译一般需要花2~3分钟)
为了精确的性能测量,建议排除这种较慢的第一次推断,因为它不能反映正常的运行时间。
(完成一次编译以后,后续只要不改变参数,跑图的速度都是正常水平)
当分辨率、批量大小、设备或采样器(如DPM++或)发生变化时,将重新编译模型。在重新编译之后,以后的推断将重用新编译的模型并实现更快的运行时间。因此,在设置更改后的第一个推理较慢是正常的,而随后的推理使用优化的编译模型并运行得更快。
另外(注意!),模型编译的缓存被保存在根目录下的cache文件夹内。长期使用会产生非常大的存储空间占用,推荐定期清理。
太大了……
代码部署
如果你有较为熟练的自主安装部署经验与一定的代码基础,可以参考官方的Intel设备部署流程,在/Linux上部署加速的WebUI分支。
原项目地址:
1111 Intel芯片部署流程:
原安装文档
我对相关页面做了一个完整翻译,因包含较多的格式不方便在专栏里呈现,感兴趣的朋友可以参阅:
中文版文档
通过代码部署后,同样需要开启加速脚本,具体操作和上方讲解一致。
