机器学习云平台为用户提供了强大的AI算法开发工具,整合云原生的工具+算力(GPU、CPU云服务器),加速开发和部署流程。本案例旨在展示如何利用 MLP 快速部署 ComfyUI ,以实现高效的图像生成和处理。
请点击查看部署效果:ComfyUI
本实践所参考的源码:GitHub - ComfyUI_examples
填写各项参数及 Prompt 后,点击 Queue Prompt,即可获得图像输出。
本方案以 ComfyUI 为例,在开始执行操作前,请确认您已经完成以下准备工作:
进入在开发机控制台,创建开发机并进行资源部署,具体操作详见创建开发机--机器学习平台-火山引擎。关键配置如下:
资源规格:配置以下资源规格。
镜像:选择镜像 URL,填入vemlp-demo-cn-shanghai.cr.volces.com/demo/comfyui:v0.2.3
访问端口:至少开启 SSH/WebIDE 中的一项,本实践选择 WebIDE。并添加自定义端口-监听端口 8188,请确保安全组已放通 8188。
确认创建后,自动跳转开发机详情页。由于拉取的镜像较大,首次创建开发机事件预计 10 分钟。
开发机内执行以下命令,其中下载模型时,请根据开发机所处的 Region 执行相应的内网下载命令。其中,模型内网单流下载速度约为 50MB/s,预期需要 2min 左右。注意服务起在 0.0.0.0:8188。
cd ~/code/ComfyUI/models/checkpoints # 华东2(上海)执行以下命令下载 wget vemlp-demo-cn-shanghai.tos-cn-shanghai.ivolces.com/models/sd_xl_turbo_1.0_fp16.safetensors # 华北2(北京)执行以下命令下载 wget vemlp-demo-cn-beijing.tos-cn-beijing.ivolces.com/models/sd_xl_turbo_1.0_fp16.safetensors python ~/code/ComfyUI/main.py --listen 0.0.0.0
在 Terminal 内 command+点击 http://0.0.0.0:8188 或者 在 开发机详情页-访问配置 获取访问地址在浏览器打开,即可进入 ComfyUI 服务界面。
首先保存样例图片。
在 ComfyUI 界面 load 该样例图片(或将文件拖到界面内)以导入 Workflow。
点击右上角 Queue Prompt,首次推理可能需要等待大约 1 分钟。
部署完成后,开发机内可见日志输出,ComfyUI 上可见图像输出。
进入在线服务控制台,创建推理服务并进行资源部署,关键配置如下:
镜像:选择镜像 URL,填入vemlp-demo-cn-shanghai.cr.volces.com/demo/comfyui:v0.2.3
入口命令:型需根据在线服务所处的 Region 执行相应的内网模型下载命令。
cd ~/code/ComfyUI/models/checkpoints # 华东2(上海)执行以下命令下载 wget vemlp-demo-cn-shanghai.tos-cn-shanghai.ivolces.com/models/sd_xl_turbo_1.0_fp16.safetensors # 华北2(北京)执行以下命令下载 wget vemlp-demo-cn-beijing.tos-cn-beijing.ivolces.com/models/sd_xl_turbo_1.0_fp16.safetensors python ~/code/ComfyUI/main.py --listen 0.0.0.0
说明
生产业务中,模型建议通过挂载共享存储 vePFS/SFCS 拉取,以保证扩容效率。
子网与安全组:配置安全中,请确保已放通8188。
端口:添加自定义端口,监听端口设置为8188,调用端口可任意选择。
负载均衡器:「前置依赖」 中创建的负载均衡。
完成上述配置后,可以在【服务详情页-日志】处看到,模型内网单流下载速度约为 50MB/s,预期需要 2min 左右。注意服务起在 0.0.0.0:8188。
进入已创建的在线服务【详情页 - 调用指南】,获取公网访问地址并在浏览器打开。
首先保存样例图片。
在 ComfyUI 界面 load 该样例图片(或将文件拖到界面内)以导入 Workflow。
点击右上角 Queue Prompt,首次推理可能需要等待大约 1 分钟。
部署完成后,开发机内可见日志输出,ComfyUI 上可见图像输出。