You need to enable JavaScript to run this app.
最新活动
大模型
产品
解决方案
定价
生态与合作
支持与服务
开发者
了解我们

产品架构

架构图
容器服务
深度融合新一代云原生AI技术,为AI负载提供部署加速、应用编排、资源调度等能力。

架构优势

百个镜像分钟级拉取
R1满血模型冷启动提速8倍
PD分离编排,提升资源管理效率
精准弹性伸缩,提升GPU利用率
GPU故障检测,分钟级定位自愈

相关产品

架构图

架构优势

百个镜像分钟级拉取
R1满血模型冷启动提速8倍
PD分离编排,提升资源管理效率
架构图

架构优势

百个镜像分钟级拉取
R1满血模型冷启动提速8倍
PD分离编排,提升资源管理效率

产品规格

选择规格
规格类型
容器服务-托管容器集群
弹性容器实例-通用型
弹性容器实例-GPU计算型
规格详情
云服务器节点
GPU云服务器节点
弹性裸金属节点

云服务器节点

基于火山引擎通用型云服务器创建集群节点,能满足大部分通用业务的资源需求。
适用场景
通用Web应用
有状态后端服务
数据库类型服务

产品优势

源自字节跳动百万节点容器管理的最佳实践
全栈加速
AI镜像和模型缓存加速

AI加速

模型加速提升AI推理性能
AI镜像快速加载
vRDMA、自研veCCL
高利用率
极致GPU使用率

AI资源高效管理

丰富的GPU共享调度策略
支持AI多模型混部
支持GPU在线离线业务混部
极致弹性
秒级响应突发流量浪涌

AI负载高效弹性

推理服务PD实例的独立扩缩容
GPU工作负载缩容到0,节省资源
自定义指标进行AI负载扩缩容
高效运维
AI服务运维观测

AI运维一站式

支持模型性能观测
支持GPU故障检测自愈
丰富的GPU、RDMA指标观测
全栈加速
AI镜像和模型缓存加速

AI加速

模型加速提升AI推理性能
AI镜像快速加载
vRDMA、自研veCCL
高利用率
极致GPU使用率

AI资源高效管理

丰富的GPU共享调度策略
支持AI多模型混部
支持GPU在线离线业务混部
极致弹性
秒级响应突发流量浪涌

AI负载高效弹性

推理服务PD实例的独立扩缩容
GPU工作负载缩容到0,节省资源
自定义指标进行AI负载扩缩容
高效运维
AI服务运维观测

AI运维一站式

支持模型性能观测
支持GPU故障检测自愈
丰富的GPU、RDMA指标观测

应用场景

云原生AI
基于容器集群支撑AI模型开发、训练、推理等场景,为AI平台提供强大的算力底座。
极速启动
支持百台GPU的镜像和模型分钟级拉起与加载。
分布式推理
PD分离编排,提升资源管理效率;PD实例独立动态扩容,提升GPU利用率。
高弹性业务
为直播、电商、游戏等负载剧烈波动的业务提供按需使用、秒级弹性、稳定可靠的资源支撑。
云原生AI
基于容器集群支撑AI模型开发、训练、推理等场景,为AI平台提供强大的算力底座。
极速启动
支持百台GPU的镜像和模型分钟级拉起与加载。
分布式推理
PD分离编排,提升资源管理效率;PD实例独立动态扩容,提升GPU利用率。
高弹性业务
为直播、电商、游戏等负载剧烈波动的业务提供按需使用、秒级弹性、稳定可靠的资源支撑。
云原生AI
基于容器集群支撑AI模型开发、训练、推理等场景,为AI平台提供强大的算力底座。
云原生AI
极速启动
分布式推理
高弹性业务

云原生AI

基于容器集群支撑AI模型开发、训练、推理等场景,为AI平台提供强大的算力底座。
云原生AI

极速启动

支持百台GPU的镜像和模型分钟级拉起与加载。
极速启动

分布式推理

PD分离编排,提升资源管理效率;PD实例独立动态扩容,提升GPU利用率。
分布式推理

高弹性业务

为直播、电商、游戏等负载剧烈波动的业务提供按需使用、秒级弹性、稳定可靠的资源支撑。
高弹性业务

产品功能

AI资源管理

AI资源管理

支持GPU显存和算力的严格隔离,和算力细粒度分配,支持业务混部,实现GPU资源利用率的大幅提升。详情详情
AI负载弹性伸缩

AI负载弹性伸缩

丰富的弹性伸缩策略,支持自定义指标伸缩、事件驱动伸缩、智能伸缩等策略。详情详情
AI资源观测

AI资源观测

支持GPU 、RDMA资源观测,提供丰富的指标,支持多粒度的展示,提升AI运维的效率。详情详情
AI数据加速

AI数据加速

将数据从存储位置缓存到算力近端,缩短算力端加载模型用时,提升AI训练和大模型应用的推理运行速度。详情详情
集群管理

集群管理

创建开箱即用的Kubernetes集群,控制面节点完全托管,可选网络模型,支持公网访问,可一键升级集群。详情详情
弹性容器

弹性容器

基于安全沙箱构建实例,提供虚拟机级别的隔离,无缝集成容器集群,支持秒级启动,具备灵活弹性伸缩能力。详情详情
调度管理

调度管理

丰富的调度策略满足在离线等不同场景的业务需求,在保障应用性能的同时最大化提高资源利用率。详情详情
授权管理

授权管理

支持面向云资源的IAM权限控制和面向容器服务的RBAC权限控制。提供丰富的预设策略并支持用户自定义。详情详情
AI资源管理

AI资源管理

支持GPU显存和算力的严格隔离,和算力细粒度分配,支持业务混部,实现GPU资源利用率的大幅提升。详情详情
AI负载弹性伸缩

AI负载弹性伸缩

丰富的弹性伸缩策略,支持自定义指标伸缩、事件驱动伸缩、智能伸缩等策略。详情详情
AI资源观测

AI资源观测

支持GPU 、RDMA资源观测,提供丰富的指标,支持多粒度的展示,提升AI运维的效率。详情详情
AI数据加速

AI数据加速

将数据从存储位置缓存到算力近端,缩短算力端加载模型用时,提升AI训练和大模型应用的推理运行速度。详情详情
集群管理

集群管理

创建开箱即用的Kubernetes集群,控制面节点完全托管,可选网络模型,支持公网访问,可一键升级集群。详情详情
弹性容器

弹性容器

基于安全沙箱构建实例,提供虚拟机级别的隔离,无缝集成容器集群,支持秒级启动,具备灵活弹性伸缩能力。详情详情
调度管理

调度管理

丰富的调度策略满足在离线等不同场景的业务需求,在保障应用性能的同时最大化提高资源利用率。详情详情
授权管理

授权管理

支持面向云资源的IAM权限控制和面向容器服务的RBAC权限控制。提供丰富的预设策略并支持用户自定义。详情详情
展开查看更多

客户案例

来自企业客户的信任
理想汽车
理想汽车使用火山引擎VKE实现超大规模容器集群的资源管理和调度,加速自动驾驶AI模型训练业务。
理想汽车
晶泰科技
火山引擎VKE/VCI提供大量算力,助力晶泰科技构建高效弹性云产业平台,提升药物研发效率。
晶泰科技
理想汽车晶泰科技

产品动态

2025-02-10
mGPU支持在线和离线业务混合部署到同一张GPU卡。提升了GPU资源利用率。
查看详情
2025-02-10
容器服务公测支持Kubernetes v1.30版本,提供新的Kubernetes版本功能体验。
查看详情
2024-12-23
VKE支持火山引擎资源管理的项目(Project)相关能力正式商用,支持通过Project进行权限管理和分账管理。
查看详情
2024-08-26
RDMA设备插件 (rdma-device-plugin) 公测,支持RDMA设备插件组件化安装方式,通过独占和共享方式便捷使用RDMA能力,提升用户体验。
查看详情
2024-07-22
GPU机型节点公测支持Ubuntu操作系统。扩展支持了Linux发行版,满足更多用户的场景需求。
查看详情
2024-07-10
mGPU多卡共享支持全量算力分配策略,进一步提高GPU碎片化资源利用率,适用于更多容器共享业务场景。
查看详情