方舟定位
为您提供大模型服务的开发平台,提供功能丰富、安全以及具备价格竞争力的模型调用服务,同时提供模型数据、精调、推理、评测等端到端功能,全方位保障您的 AI 应用开发落地。
极速体验
您可以访问火山方舟大模型体验中心,免登录极速体验模型能力。
- 点击页面中心的模型框右侧的切换按钮,可以切换体验Doubao或DeepSeek系列模型能力。
- 左侧应用广场提供了便捷易集成的开源应用。点击“更多开源应用”了解应用实验室,助力更多企业快速构建大模型应用。

选择并开通模型
使用模型前请访问开通管理页面 开通对应模型服务。
doubao-1.5-pro | doubao-1.5-lite | doubao-1.5-vision | deepseek |
---|
最新一代专业版大模型,单价不提升的同时,模型能力有大幅提升,在知识、代码、推理、中文等相关的多项测评中获得高分,达到行业SOTA水平。 - 最高支持 256k 最大上下文长度
- 可配置 12k 最大输出长度
- 高质量,低成本,极具性价比
| 最新一代轻量版大模型,模型版本效果比肩doubao 1.0 pro系列,超低延迟,每个token输出时间仅为10ms,将给汽车座舱、角色扮演等场景应用,带来全新的速度体验。 - 支持 32k 最大上下文长度
- 可配置 12k 最大输出长度
- 更快,更便宜
| 最新一代视觉理解模型,升级多模态数据合成、动态分辨率、多模态对齐等技术,增强模型在视觉推理、文字识别、细粒度信息理解、指令遵循的能力,模型回复变得更加精简、友好。 - 支持 32k 上下文长度/ 50 张图片
- 可配置 12k 最大输出长度
- 低成本,强能力
| deepseek 推出的开源语言模型。deepseek-r1 性能比肩 OpenAI o1 正式版;deepseek-v3 为 MoE 模型,671B 参数,激活 37B,在 14.8T token 上进行了预训练。 - 支持 64k 上下文长度
- 可配置 16k 最大输出长度
- 高性能,满血版
|
模型列表 | 模型定价详情
快速入门
快速入门-调用模型服务 | 直接体验
帮助您发起第一次的大模型服务调用。
import os
from volcenginesdkarkruntime import Ark
# 获取并配置方舟API Key,并从环境变量中读取。https://www.volcengine.com/docs/82379/1399008#_1-%E8%8E%B7%E5%8F%96%E5%B9%B6%E9%85%8D%E7%BD%AE-api-key
client = Ark(api_key=os.environ.get("<ARK_API_KEY>"))
completion = client.chat.completions.create(
# 替换为模型 ID,获取模型 ID:https://www.volcengine.com/docs/82379/1330310
model="<Model>",
messages=[
{"role": "user", "content": "你好"}
]
)
print(completion.choices[0].message.content)
您也可将<Model>
配置为推理接入点ID,来获取调用限流、购买保障包、监控调用明细等附加能力。详细请参见 获取推理接入点 ID。
curl https://ark.cn-beijing.volces.com/api/v3/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer <ARK_API_KEY>" \
-d '{
"model": "<Model>",
"messages": [
{"role": "user", "content": "你好"}
]
}'
您也可将<Model>
配置为推理接入点ID,来获取调用限流、购买保障包、监控调用明细等附加能力,详细请参见 获取推理接入点 ID。
import os
from openai import OpenAI
client = OpenAI(
base_url="https://ark.cn-beijing.volces.com/api/v3",
# 获取并配置方舟API Key,并从环境变量中读取。https://www.volcengine.com/docs/82379/1399008#_1-%E8%8E%B7%E5%8F%96%E5%B9%B6%E9%85%8D%E7%BD%AE-api-key
api_key=os.environ.get("<ARK_API_KEY>")
)
completion = client.chat.completions.create(
# 替换 <Model> 为模型 ID。获取模型 ID:https://www.volcengine.com/docs/82379/1330310
model="<Model>",
messages = [
{"role": "user", "content": "你好"},
]
)
print(completion.choices[0].message.content)
您可将<Model>
配置为推理接入点ID,来获取调用限流、购买保障包、监控调用明细等附加能力。详细请参见 获取推理接入点 ID。
实践教程
上下文缓存(Context API)概述 | 批量推理 | Prompt 最佳实践 | Prefill Response模式最佳实践 |
---|
方舟提供的高效的缓存机制,您可以基于它优化多轮对话,通过缓存部分上下文数据,减少重复加载或处理,提高响应速度和一致性。 | 当您的任务计算量大,如分析当日汇总新闻信息、翻译长文本、用户反馈分析收录等大规模数据处理任务,您可以借助方舟的批量推理能力获得更高速率限制和更大吞吐的模型推理服务。 | Prompt engineering 是指设计和优化提示的过程,以使人工智能模型能够更好地理解用户的意图和要求,并生成更准确、有用的响应。 | 通过预填部分Assistant 角色的内容,来引导和控制模型的输出:强制按照 JSON 或 XML 等特定格式输出;跳过已生成的内容,避免触发模型最大输出限制;控制大模型在角色扮演场景中保持同一角色。 |
产品优势
- 安全与互信:大模型安全信任方案严格保障模型提供方与模型使用者的模型与信息安全,点击查看安全互信白皮书。
- 精选模型:支持多行业各业务场景模型,提供丰富的平台应用与工具,帮助您搭建专属的创新场景。
- 强劲算力:基于火山的万卡资源池,提供充足的高性能GPU资源,为您提供包含模型精调、评测、推理等端到端模型服务。
- 企业级服务:提供专业服务体系支持,专业的产品运营、销售交付服务,满足企业应用搭建与交付需求。