为您提供大模型服务的开发平台,提供功能丰富、安全以及具备价格竞争力的模型调用服务,同时提供模型数据、精调、推理、评测等端到端功能,全方位保障您的 AI 应用开发落地。
使用模型前请访问开通管理页面 开通对应模型服务。
最新一代专业版大模型,单价不提升的同时,模型能力有大幅提升,在知识、代码、推理、中文等相关的多项测评中获得高分,达到行业SOTA水平。
| 最新一代轻量版大模型,模型版本效果比肩doubao 1.0 pro系列,超低延迟,每个token输出时间仅为10ms,将给汽车座舱、角色扮演等场景应用,带来全新的速度体验。
| 最新一代视觉理解模型,升级多模态数据合成、动态分辨率、多模态对齐等技术,增强模型在视觉推理、文字识别、细粒度信息理解、指令遵循的能力,模型回复变得更加精简、友好。
| deepseek 推出的开源语言模型。deepseek-r1 性能比肩 OpenAI o1 正式版;deepseek-v3 为 MoE 模型,671B 参数,激活 37B,在 14.8T token 上进行了预训练。
|
快速入门-调用模型服务 | 直接体验
帮助您发起第一次的大模型服务调用。
import os from volcenginesdkarkruntime import Ark # 获取并配置方舟API Key,并从环境变量中读取。https://www.volcengine.com/docs/82379/1399008#_1-%E8%8E%B7%E5%8F%96%E5%B9%B6%E9%85%8D%E7%BD%AE-api-key client = Ark(api_key=os.environ.get("<ARK_API_KEY>")) completion = client.chat.completions.create( # 替换为模型 ID,获取模型 ID:https://www.volcengine.com/docs/82379/1330310 model="<Model>", messages=[ {"role": "user", "content": "你好"} ] ) print(completion.choices[0].message.content)
您也可将
<Model>
配置为推理接入点ID,来获取调用限流、购买保障包、监控调用明细等附加能力。详细请参见 获取推理接入点 ID。
方舟提供的高效的缓存机制,您可以基于它优化多轮对话,通过缓存部分上下文数据,减少重复加载或处理,提高响应速度和一致性。 | 当您的任务计算量大,如分析当日汇总新闻信息、翻译长文本、用户反馈分析收录等大规模数据处理任务,您可以借助方舟的批量推理能力获得更高速率限制和更大吞吐的模型推理服务。 | Prompt engineering 是指设计和优化提示的过程,以使人工智能模型能够更好地理解用户的意图和要求,并生成更准确、有用的响应。 | 通过预填部分 |