We're sorry but react app doesn't work properly without JavaScript enabled. Please enable it to continue.
最新活动
大模型
产品
解决方案
定价
生态与合作
支持与服务
开发者
了解我们
文档
备案
控制台
登录
立即注册
容器服务
容器服务(Volcengine Kubernetes Engine,VKE)提供高性能、高可靠、极致弹性的企业级容器管理能力;支持AI部署加速、GPU资源管理、AI编排调度,提升AI服务性能。
企业级Kubernetes集群管理服务
35% +
端到端吞吐提升
分钟级
超大模型加载
分钟级
弹数千Pod
立即使用
产品文档
VCI 文档
AI应用编排
vLLM、SGLang、Dynamo等多种框架的推理服务编排,为AI场景提供高效的部署能力。
弹性伸缩
支持PD实例的独立扩缩容,降低弹性时延,提升Token吞吐能力。
GPU资源混部
支持GPU在离线任务错峰出让资源和多模型混部,提升GPU资源利用率。
AI镜像和模型加速
模型缓存加速,AI镜像快速加载,vRDMA、自研veCCL提升模型通信性能。
产品架构
产品规格
产品优势
应用场景
产品功能
客户案例
使用指南
产品动态
产品架构
容器服务
深度融合新一代云原生AI技术,为AI负载提供部署加速、应用编排、资源调度等能力。
架构优势
百个镜像分钟级拉取
R1满血模型冷启动提速8倍
PD分离编排,提升资源管理效率
精准弹性伸缩,提升GPU利用率
GPU故障检测,分钟级定位自愈
立即咨询
相关产品
托管 Prometheus
镜像仓库
架构优势
百个镜像分钟级拉取
R1满血模型冷启动提速8倍
PD分离编排,提升资源管理效率
相关产品
托管 Prometheus
镜像仓库
架构优势
百个镜像分钟级拉取
R1满血模型冷启动提速8倍
PD分离编排,提升资源管理效率
相关产品
托管 Prometheus
镜像仓库
产品规格
选择规格
规格类型
容器服务-托管容器集群
弹性容器实例-通用型
弹性容器实例-GPU计算型
规格详情
云服务器节点
GPU云服务器节点
弹性裸金属节点
立即咨询
了解详情
云服务器节点
基于火山引擎通用型云服务器创建集群节点,能满足大部分通用业务的资源需求。
适用场景
通用Web应用
有状态后端服务
数据库类型服务
产品优势
源自字节跳动百万节点容器管理的最佳实践
全栈加速
AI镜像和模型缓存加速
AI加速
模型加速提升AI推理性能
AI镜像快速加载
vRDMA、自研veCCL
高利用率
极致GPU使用率
AI资源高效管理
丰富的GPU共享调度策略
支持AI多模型混部
支持GPU在线离线业务混部
极致弹性
秒级响应突发流量浪涌
AI负载高效弹性
推理服务PD实例的独立扩缩容
GPU工作负载缩容到0,节省资源
自定义指标进行AI负载扩缩容
高效运维
AI服务运维观测
AI运维一站式
支持模型性能观测
支持GPU故障检测自愈
丰富的GPU、RDMA指标观测
全栈加速
AI镜像和模型缓存加速
AI加速
模型加速提升AI推理性能
AI镜像快速加载
vRDMA、自研veCCL
高利用率
极致GPU使用率
AI资源高效管理
丰富的GPU共享调度策略
支持AI多模型混部
支持GPU在线离线业务混部
极致弹性
秒级响应突发流量浪涌
AI负载高效弹性
推理服务PD实例的独立扩缩容
GPU工作负载缩容到0,节省资源
自定义指标进行AI负载扩缩容
高效运维
AI服务运维观测
AI运维一站式
支持模型性能观测
支持GPU故障检测自愈
丰富的GPU、RDMA指标观测
应用场景
云原生AI
基于容器集群支撑AI模型开发、训练、推理等场景,为AI平台提供强大的算力底座。
立即咨询
极速启动
支持百台GPU的镜像和模型分钟级拉起与加载。
立即咨询
分布式推理
PD分离编排,提升资源管理效率;PD实例独立动态扩容,提升GPU利用率。
立即咨询
高弹性业务
为直播、电商、游戏等负载剧烈波动的业务提供按需使用、秒级弹性、稳定可靠的资源支撑。
立即咨询
云原生AI
基于容器集群支撑AI模型开发、训练、推理等场景,为AI平台提供强大的算力底座。
立即咨询
极速启动
支持百台GPU的镜像和模型分钟级拉起与加载。
立即咨询
分布式推理
PD分离编排,提升资源管理效率;PD实例独立动态扩容,提升GPU利用率。
立即咨询
高弹性业务
为直播、电商、游戏等负载剧烈波动的业务提供按需使用、秒级弹性、稳定可靠的资源支撑。
立即咨询
云原生AI
基于容器集群支撑AI模型开发、训练、推理等场景,为AI平台提供强大的算力底座。
立即咨询
云原生AI
基于容器集群支撑AI模型开发、训练、推理等场景,为AI平台提供强大的算力底座。
立即咨询
极速启动
支持百台GPU的镜像和模型分钟级拉起与加载。
立即咨询
分布式推理
PD分离编排,提升资源管理效率;PD实例独立动态扩容,提升GPU利用率。
立即咨询
高弹性业务
为直播、电商、游戏等负载剧烈波动的业务提供按需使用、秒级弹性、稳定可靠的资源支撑。
立即咨询
产品功能
立即咨询
AI资源管理
支持GPU显存和算力的严格隔离,和算力细粒度分配,支持业务混部,实现GPU资源利用率的大幅提升。
详情
详情
AI负载弹性伸缩
丰富的弹性伸缩策略,支持自定义指标伸缩、事件驱动伸缩、智能伸缩等策略。
详情
详情
AI资源观测
支持GPU 、RDMA资源观测,提供丰富的指标,支持多粒度的展示,提升AI运维的效率。
详情
详情
AI数据加速
将数据从存储位置缓存到算力近端,缩短算力端加载模型用时,提升AI训练和大模型应用的推理运行速度。
详情
详情
集群管理
创建开箱即用的Kubernetes集群,控制面节点完全托管,可选网络模型,支持公网访问,可一键升级集群。
详情
详情
弹性容器
基于安全沙箱构建实例,提供虚拟机级别的隔离,无缝集成容器集群,支持秒级启动,具备灵活弹性伸缩能力。
详情
详情
调度管理
丰富的调度策略满足在离线等不同场景的业务需求,在保障应用性能的同时最大化提高资源利用率。
详情
详情
授权管理
支持面向云资源的IAM权限控制和面向容器服务的RBAC权限控制。提供丰富的预设策略并支持用户自定义。
详情
详情
AI资源管理
支持GPU显存和算力的严格隔离,和算力细粒度分配,支持业务混部,实现GPU资源利用率的大幅提升。
详情
详情
AI负载弹性伸缩
丰富的弹性伸缩策略,支持自定义指标伸缩、事件驱动伸缩、智能伸缩等策略。
详情
详情
AI资源观测
支持GPU 、RDMA资源观测,提供丰富的指标,支持多粒度的展示,提升AI运维的效率。
详情
详情
AI数据加速
将数据从存储位置缓存到算力近端,缩短算力端加载模型用时,提升AI训练和大模型应用的推理运行速度。
详情
详情
集群管理
创建开箱即用的Kubernetes集群,控制面节点完全托管,可选网络模型,支持公网访问,可一键升级集群。
详情
详情
弹性容器
基于安全沙箱构建实例,提供虚拟机级别的隔离,无缝集成容器集群,支持秒级启动,具备灵活弹性伸缩能力。
详情
详情
调度管理
丰富的调度策略满足在离线等不同场景的业务需求,在保障应用性能的同时最大化提高资源利用率。
详情
详情
授权管理
支持面向云资源的IAM权限控制和面向容器服务的RBAC权限控制。提供丰富的预设策略并支持用户自定义。
详情
详情
展开查看更多
客户案例
来自企业客户的信任
理想汽车使用火山引擎VKE实现超大规模容器集群的资源管理和调度,加速自动驾驶AI模型训练业务。
立即使用
火山引擎VKE/VCI提供大量算力,助力晶泰科技构建高效弹性云产业平台,提升药物研发效率。
立即使用
理想汽车
晶泰科技
理想汽车使用火山引擎VKE实现超大规模容器集群的资源管理和调度,加速自动驾驶AI模型训练业务。
立即使用
火山引擎VKE/VCI提供大量算力,助力晶泰科技构建高效弹性云产业平台,提升药物研发效率。
立即使用
使用指南
欢迎查看使用指南
容器服务最佳实践
安全、稳定、高效地使用VKE容器集群。
部署满血版DeepSeek-V3/R1模型
稳定性运维方案
集群最佳实践
网络最佳实践
P2P镜像加速
容器镜像懒加载
了解容器服务
什么是容器服务
产品优势
产品计费
快速入门
可观测性
可观测概述
AI资源观测
日志概述
监控概述
弹性容器实例
什么是弹性容器实例
VCI快速入门
AI套件
AI套件概述
AI数据加速
产品动态
2025-02-10
mGPU支持在线和离线业务混合部署到同一张GPU卡。提升了GPU资源利用率。
查看详情
2025-02-10
容器服务公测支持Kubernetes v1.30版本,提供新的Kubernetes版本功能体验。
查看详情
2024-12-23
VKE支持火山引擎资源管理的项目(Project)相关能力正式商用,支持通过Project进行权限管理和分账管理。
查看详情
2024-08-26
RDMA设备插件 (rdma-device-plugin) 公测,支持RDMA设备插件组件化安装方式,通过独占和共享方式便捷使用RDMA能力,提升用户体验。
查看详情
2024-07-22
GPU机型节点公测支持Ubuntu操作系统。扩展支持了Linux发行版,满足更多用户的场景需求。
查看详情
2024-07-10
mGPU多卡共享支持全量算力分配策略,进一步提高GPU碎片化资源利用率,适用于更多容器共享业务场景。
查看详情