You need to enable JavaScript to run this app.
导航
如何在火山引擎中5分钟部署 ComfyUI
最近更新时间:2024.12.16 15:29:47首次发布时间:2024.12.16 15:29:47
前言

机器学习云平台为用户提供了强大的AI算法开发工具,整合云原生的工具+算力(GPU、CPU云服务器),加速开发和部署流程。本案例旨在展示如何利用 MLP 快速部署 ComfyUI ,以实现高效的图像生成和处理。

快速体验

DEMO

预期结果

填写各项参数及 Prompt 后,点击 Queue Prompt,即可获得图像输出。

快速部署实践

前置依赖

本方案以 ComfyUI 为例,在开始执行操作前,请确认您已经完成以下准备工作:

方式一:开发机部署

Step1:创建开发机

进入在开发机控制台,创建开发机并进行资源部署,具体操作详见创建开发机--机器学习平台-火山引擎。关键配置如下:

  1. 资源规格:配置以下资源规格。

    • CPU 实例:8C/64G/20GB云盘。
    • GPU 卡数:至少 1 卡,最佳实践采用一台 ml.gni3。
  2. 镜像:选择镜像 URL,填入vemlp-demo-cn-shanghai.cr.volces.com/demo/comfyui:v0.2.3

  3. 访问端口:至少开启 SSH/WebIDE 中的一项,本实践选择 WebIDE。并添加自定义端口-监听端口 8188,请确保安全组已放通 8188。

  4. 确认创建后,自动跳转开发机详情页。由于拉取的镜像较大,首次创建开发机事件预计 10 分钟。


Step2:部署 ComfyUI 并下载样例模型

开发机内执行以下命令,其中下载模型时,请根据开发机所处的 Region 执行相应的内网下载命令。其中,模型内网单流下载速度约为 50MB/s,预期需要 2min 左右。注意服务起在 0.0.0.0:8188。

cd ~/code/ComfyUI/models/checkpoints
# 华东2(上海)执行以下命令下载
wget vemlp-demo-cn-shanghai.tos-cn-shanghai.ivolces.com/models/sd_xl_turbo_1.0_fp16.safetensors
# 华北2(北京)执行以下命令下载
wget vemlp-demo-cn-beijing.tos-cn-beijing.ivolces.com/models/sd_xl_turbo_1.0_fp16.safetensors
python ~/code/ComfyUI/main.py --listen 0.0.0.0

Step3:访问 ComfyUI 服务

在 Terminal 内 command+点击 http://0.0.0.0:8188 或者 在 开发机详情页-访问配置 获取访问地址在浏览器打开,即可进入 ComfyUI 服务界面。

Step4:导入样例 Workflow 并生图

  1. 首先保存样例图片。

  2. 在 ComfyUI 界面 load 该样例图片(或将文件拖到界面内)以导入 Workflow。

  3. 点击右上角 Queue Prompt,首次推理可能需要等待大约 1 分钟。

  4. 部署完成后,开发机内可见日志输出,ComfyUI 上可见图像输出。

方式二:在线服务部署

Step1:创建在线服务

进入在线服务控制台,创建推理服务并进行资源部署,关键配置如下:

  1. 镜像:选择镜像 URL,填入vemlp-demo-cn-shanghai.cr.volces.com/demo/comfyui:v0.2.3

  2. 入口命令:型需根据在线服务所处的 Region 执行相应的内网模型下载命令。

cd ~/code/ComfyUI/models/checkpoints
# 华东2(上海)执行以下命令下载
wget vemlp-demo-cn-shanghai.tos-cn-shanghai.ivolces.com/models/sd_xl_turbo_1.0_fp16.safetensors
# 华北2(北京)执行以下命令下载
wget vemlp-demo-cn-beijing.tos-cn-beijing.ivolces.com/models/sd_xl_turbo_1.0_fp16.safetensors
python ~/code/ComfyUI/main.py --listen 0.0.0.0

说明

生产业务中,模型建议通过挂载共享存储 vePFS/SFCS 拉取,以保证扩容效率。

  1. 子网与安全组:配置安全中,请确保已放通8188。

  2. 端口:添加自定义端口,监听端口设置为8188,调用端口可任意选择。

  3. 负载均衡器:「前置依赖」 中创建的负载均衡。



完成上述配置后,可以在【服务详情页-日志】处看到,模型内网单流下载速度约为 50MB/s,预期需要 2min 左右。注意服务起在 0.0.0.0:8188。

Step2:访问 ComfyUI 服务

进入已创建的在线服务【详情页 - 调用指南】,获取公网访问地址并在浏览器打开。

Step3:导入样例 Workflow 并生图

  1. 首先保存样例图片。

  2. 在 ComfyUI 界面 load 该样例图片(或将文件拖到界面内)以导入 Workflow。

  3. 点击右上角 Queue Prompt,首次推理可能需要等待大约 1 分钟。

  4. 部署完成后,开发机内可见日志输出,ComfyUI 上可见图像输出。