ByteHouse 是一款火山引擎云原生数据仓库,为您提供极速分析体验,能够支撑实时数据分析和海量数据离线分析等场景。
DataSail 中的 ByteHouse 云数仓版数据源配置,为您提供读取和写入 ByteHouse 的双向通道数据集成能力,实现不同数据源与 ByteHouse 之间进行数据传输。
本文为您介绍 DataSail 的 ByteHouse 数据同步的能力支持情况。
支持火山引擎 ByteHouse 云数仓版(ByteHouse_CDW)标品。开通服务详见快速开始。
支持脚本模式(DSL)离线读写和可视化模式离线读写。
因为 ByteHouse Date 类型的格式限制,如果分区字段类型是 Date,分区内容请填写为 ${DATE}。如果需要写入具体的分区,需按照 yyyy-MM-dd 格式填写。
数据集成任务需要使用独享集成资源组,您需根据实际业务需求,购买相应规格的独享集成资源组。开通资源组详见资源组管理。
独享数据集成资源组,需要具有 ByteHouse CDW 数据库的网络访问能力,网络互通方案如下:
网络配置方式 | 操作方式 |
---|---|
公网 | ByteHouse CDW 数据源可通过公网的方式进行访问,因此独享数据集成资源组需要开通公网能力来访问数据库,操作步骤详见:资源组VPC开通公网。
|
火山引擎内网 | ByteHouse CDW 同时也支持通过 VPC 内网形式访问连接,主账号需进入 ByteHouse CDW 租户管理界面绑定相关网络信息。操作流程如下:
更多绑定操作,详见设置网络信息。 |
ByteHouse CDW Reader:
数据类型 | 是否支持 |
---|---|
| 支持 |
Float64 | 支持 |
Decimal | 支持 |
Date | 支持 |
datetime | 支持 |
String | 支持 |
Enum8 | 支持 |
Array | 支持单层 Array 类型,不支持 Array 的嵌套类型 |
ByteHouse CDW Writer:
数据字段类型 | 支持情况 |
---|---|
Int | 支持 |
Uint | 支持 |
Float | 支持 |
String | 支持 |
Time | 支持 |
Array | 支持单层 Array 类型,不支持 Array 的嵌套类型 |
Map | 支持 |
下文将为您介绍数据集成任务配置的详细流程。
新建数据源操作详见配置数据源,下面为您介绍火山引擎 ByteHouse 云数仓版数据源不同接入方式的配置信息。
其中参数名称前带 * 的为必填参数,名称前未带 * 的为可选填参数。
火山引擎 ByteHouse 云数仓版方式接入:
参数 | 说明 |
---|---|
基本配置 | |
数据源类型 | ByteHouse 云数仓版 |
接入方式 | 火山引擎 ByteHouse 云数仓版 |
数据源名称 | 数据源的名称,可自行设置,仅支持中文,英文,数字,“_”,100个字符以内。 |
参数配置 | |
*ByteHouse 库 | 下拉选择已在 ByteHouse 云数仓版中创建的数据库名称信息。 |
*计算组 | ByteHouse_CDW 中查询使用的计算组。如果在 ByteHouse 控制台中设置了默认计算组时可以不明确指定。详见 ByteHouse CDW 计算组。 注意 选择计算组时,需确保计算组使用率在 80% 以下,若超过 80% 会导致任务执行时写入异常,需进行扩容。扩容操作详见计算组规格变更。 |
API Token | ByteHouse_CDW 租户管理中的 Access Key 信息。ByteHouse 读取数据的时候需要使用,建议绑定一个长效 Token,避免 Token 过期出现任务异常。 说明 使用数据同步解决方案写入、JDBC 连接方式写入和离线读取 ByteHouse CDW 时,API Token 必须填写。 |
连接串方式接入:
参数 | 说明 |
---|---|
基本配置 | |
数据源类型 | ByteHouse 云数仓版 |
接入方式 | 连接串 |
数据源名称 | 数据源的名称,可自行设置,仅支持中文,英文,数字,“_”,100个字符以内。 |
参数配置 | |
JDBC URL | 根据数据库所在地域,选择填写 ByteHouse CDW 的 JDBC URL 地址信息:
|
*API Server | 根据数据库所在地域,选择填写 ByteHouse CDW 的 API Server 地址:
|
*数据库名 | 下拉选择已在 ByteHouse 云数仓版中创建的数据库名称信息。 |
*计算组 | ByteHouse_CDW 中查询使用的计算组。如果在 ByteHouse 中设置了默认计算组就可以不明确指定。详见 ByteHouse CDW 计算组。 |
*API Token | ByteHouse_CDW 租户管理中的 Access Key 信息。ByteHouse 读取数据的时候需要使用,建议绑定一个长效 Token,避免 Token 过期出现任务异常。 说明 使用数据同步解决方案写入、JDBC 写入方式和离线读取 ByteHouse CDW 时,API Token 必须填写。 |
ByteHouse 云数仓版(ByteHouse_CDW)数据源测试连通性成功后,进入到数据开发界面,开始新建 ByteHouse 相关通道任务。
新建任务方式详见离线数据同步。
任务创建成功后,您可根据实际场景,配置 ByteHouse_CDW 批式读或 ByteHouse_CDW 批式写等通道任务。
数据来源选择 ByteHouse_CDW,并完成以下相关参数配置:
其中参数名称前带 * 的为必填参数,名称前未带 * 的为可选填参数。
参数 | 说明 |
---|---|
*数据源类型 | 下拉选择 ByteHouse_CDW 数据源类型。 |
*数据源名称 | 已在数据源管理中注册成功的 ByteHouse_CDW 数据源,下拉可选。 |
*数据表 | 选择需要采集的数据表名称信息,目前单个任务只支持将单表的数据采集到一个目标表中。 |
数据过滤 | 支持您将需要同步的数据进行筛选条件设置,只同步符合过滤条件的数据,可直接填写关键词 where 后的过滤 SQL 语句且无需填写结束符号(;),例如:create_time > '${date}',表示只同步 create_time 大于等于 ${date} 的数据,不需要填写 where 关键字。 说明 该过滤语句通常用作增量同步,暂时不支持 limit 关键字过滤,其 SQL 语法需要和选择的数据源类型对应。 |
*切分建 | 根据源数据表中的某一列作为切分键,建议使用主键或有索引的列作为切分键。 说明 目前仅支持类型为整型或字符串的字段作为切分建。 |
数据来源选择 ByteHouse_CDW,并完成以下相关参数配置:
其中参数名称前带 * 的为必填参数,名称前未带 * 的为可选填参数。
参数 | 说明 |
---|---|
*目标类型 | 数据去向目标类型选择 ByteHouse_CDW。 |
*数据源名称 | 已在数据源管理界面注册的 ByteHouse_CDW 数据源,下拉可选。 |
*数据表 | 数据源下所属需数据写入的表名,下拉可选。
说明 子用户操作 ByteHouse CDW 库表时,需保障子用户拥有相应的 ByteHouse CDW 库表权限。权限说明详见 ByteHouse CDW 用户管理。 |
*生命周期 | 展示所选目标数据表的生命周期。 |
*写入方式 | 支持选择 CFS、JDBC 方式写入, 注意 JDBC 写入方式,必须在数据源配置时,填写 ByteHouse CDW 中正常状态的 API Token 信息。详见4.1 数据源注册。 |
*分区设置 | 根据所选数据表,自动获取表分区字段信息。 分区内容可设置具体时间分区粒度,可以用表达式:${date}、${hour}等参数变量表示;也支持写入动态分区类型,即根据源端字段值内容,进行动态写入,动态分区值必须存在于源端 Columns 中。 说明
|
数据来源选择 ByteHouse_CDW,并完成以下相关参数配置:
其中参数名称前带 * 的为必填参数,名称前未带 * 的为可选填参数。
参数 | 说明 |
---|---|
*目标类型 | 数据去向目标类型选择 ByteHouse_CDW。 |
*数据源名称 | 已在数据源管理界面注册的 ByteHouse_CDW 数据源,下拉可选。 |
*数据表 | 数据源下所属需数据写入的表名,下拉可选。
|
*生命周期 | 展示所选目标数据表的生命周期。 |
*写入方式 | 支持选择 CFS、JDBC 方式写入, 注意 JDBC 写入方式,必须在数据源配置时,填写 ByteHouse CDW 中正常状态的 API Token 信息。详见4.1 数据源注册。 |
*分区设置 | 根据所选数据表,自动获取表分区字段信息。 分区内容可设置具体时间分区粒度,可以用表达式:${date}、${hour}等参数变量表示;也支持写入动态分区类型,即根据源端字段值内容,进行动态写入,动态分区值必须存在于源端 Columns 中。 说明
|
数据来源和目标端配置完成后,需要指定来源和目标端的字段映射关系,根据字段映射关系,数据集成任务将源端字段中的数据,写入到目标端对应字段中。
字段映射支持选择基础模式和转换模式配置映射:
注意
基础模式和转换模式不支持互相切换,模式切换后,将清空现有字段映射中所有配置信息,一旦切换无法撤销,需谨慎操作。
转换模式:
字段映射支持数据转换,您可根据实际业务需求进行配置,将源端采集的数据,事先通过数据转换后,以指定格式输入到目标端数据库中。
转换模式详细操作说明详见4.1 转换模式
在转换模式中,你可依次配置:来源节点、数据转换、目标节点信息:
配置节点 | 说明 |
---|---|
来源节点 | 配置数据来源 Source 节点信息:
配置完成后,单击确认按钮,完成来源节点配置。 |
数据转换 | 单击数据转换右侧添加按钮,选择 SQL 转换方式,配置转换信息和规则:
配置完成后,单击确认按钮,完成数据转换节点配置。SQL 脚本示例详见4.1.2 添加转换节点。 |
目标节点 | 配置目标节点 Sink 信息:
配置完成后,单击确认按钮,完成目标节点配置。 |
基础模式:
您可通过以下三种方式操作字段映射关系:
说明
自动添加字段映射时,默认不会映射来源表中的分区键字段。若有需要,您可通过手动添加的方式,将分区键字段的映射配置上。
ByteHouse_CDW 数据源支持使用脚本模式(DSL)的方式进行配置。
在某些复杂场景下,或当数据源类型暂不支持可视化配置时,您可通过任务脚本的方式,按照统一的 Json 格式,编写 ByteHouse_CDW Reader 和 ByteHouse_CDW Writer 参数脚本代码,来运行数据集成任务。
进入 DSL 模式操作流程,可详见 MySQL 数据源-4.4.1 进入DSL 模式。
进入 DSL 模式编辑界面后,您可根据实际情况替换相应参数,ByteHouse_CDW 批式读脚本示例如下:
// 变量使用规则如下: // 1.自定义参数变量: {{}}, 比如{{number}} // 2.系统时间变量${}, 比如 ${date}、${hour} // ************************************** { "version": "0.2", "type": "batch", // reader config "reader": { // [required] datasource type "type": "clickhouse" , // [optional] datasource id, set it if you have registered datasource "datasource_id": null, // [required] user parameter "parameter": { "clickhouse_type":"bytehouse_cdw", "sql_filter":"date = '20230921' ", "split_field":"id", "password":"*******", "db_name":"db_test", "vw_name":"dts_test", //"user_name":"default", "class":"com.bytedance.bitsail.connector.clickhouse.source.ClickhouseSource", "jdbc_url":"bytehouse-cn-beijing.volces.com:19000", "table_name":"table_name_test", "columns": [ { "upperCaseName":"ID", "name":"id", "type":"Int64" }, { "upperCaseName":"NAME", "name":"name", "type":"String" } ] } }, // writer config "writer": { ... }, // common config "common": { ... } }
Reader 参数说明,其中参数名称前带 * 的为必填参数,名称前未带 * 的为可选填参数:
参数名 | 参数说明 | 示例 |
---|---|---|
*type | 数据源类型,对于 ByteHouse 类型,填写:clickhouse | clickhouse |
*datasource_id | 目前 DSL 模式暂不支持以数据源 ID 的方式填写,此处默认为 null。 | |
*clickhouse_type | clickhouse数据源类型下,读取 ByteHouse 云数仓版数据源需设置为:bytehouse_cdw | bytehouse_cdw |
sql_filter | 同步数据的过滤条件,同步数据时只会同步符合过滤条件的数据,可选。 | |
*jdbc_url | ByteHouse_CDW 数据源连接的 jdbc 地址。 说明 因为 ByteHouse_CDW 侧网络限制,若实际场景中需要通过私网域名访问时,您可通过提工单的方式,联系 ByteHouse_CDW 支持同学操作,并将独享集成资源组中 VPC 中的 IPv4 CIDR 地址添加到 ByteHouse_CDW 数据库的白名单中。 | |
*vw_name | ByteHouse_CDW 中查询使用的计算组。如果在 ByteHouse 中设置了默认计算组就可以不明确指定。 | |
*password | 填写 Bytehouse CDW 账号下的 Access Key 信息:
| |
user_name | ByteHouse_CDW 中默认用户名default,可以不设置。 | |
*split_field | 根据源数据表中的某一列作为切分键,建议使用主键或有索引的列作为切分键: 说明 目前仅支持类型为整型或字符串的字段作为切分建。 | |
*class | bytehouse_cdw reader connector type,默认填写固定值:com.bytedance.bitsail.connector.clickhouse.source.ClickhouseSource | com.bytedance.bitsail.connector.clickhouse.source.ClickhouseSource |
*db_name | 填写需读取的数据库名称。 | |
*table_name | 输入需读取的数据表名字信息。 | |
*columns | 所配置的表中,需要同步的列名集合,使用 JSON 的数组描述字段信息。 |
进入 DSL 模式编辑界面后,您可根据实际情况替换相应参数,ByteHouse_CDW 批式写脚本示例如下:
// ************************************** // 变量使用规则如下: // 1.自定义参数变量: {{}}, 比如{{number}} // 2.系统时间变量${}, 比如 ${date}、${hour} // ************************************** { // [required] dsl version, suggest to use latest version "version": "0.2", // [required] execution mode, supoort streaming / batch now "type": "batch", // reader config "reader": { ... }, // writer config "writer": { // [required] datasource type "type": "bytehouse_cdw", // [optional] datasource id, set it if you have registered datasource "datasource_id": {datasource_id}, // [required] user parameter "parameter": { "columns": [ { "name": "id", "type": "String" } ], "ch_partition_type":"String", "shard_num":2, "shard_column":"id", "partition":"date=20240101", "ch_table":"table_test1" } }, // common config "common": { ... } }
批式写参数说明,其中参数名称前带 * 的为必填参数,名称前未带 * 的为可选填参数:
参数名 | 参数说明 |
---|---|
*type | 数据源类型,对于 ByteHouse 类型,填写 bytehouse_cdw |
*datasource_id | 注册的 ByteHouse_CDW 数据源 ID。可以在项目控制台 > 数据源管理界面中查找。 |
*ch_table | 填写需要数据写入的 ByteHouse_CDW 表名称信息。 |
*columns | 需要同步的列名集合,使用 JSON 的数组描述字段信息。 |
ch_partition_type | ByteHouse_CDW 表分区字段类型,多级分区需要英文逗号按顺序分割,非分区表可不填写。 |
partition | ByteHouse_CDW 分区,key=value 格式,多级分区需要英文逗号按顺序分割,非分区表可不填写。 |
*shard_num | 分片数量,用于任务分片处理,建议和任务并发设置一致。 |
*shard_column | 分片字段,建议使用 ByteHouse_CDW 表主键字段信息。 |
对于通道任务,读参数需要加上 job.reader. 前缀,写参数需要加上 job.writer. 前缀,如下图所示:
对于 DSL 任务,读参数请配置到 reader.parameter 下,写参数请配置到 writer.parameter 下,直接输入参数名称和参数值,如:"job.writer.loading_mode":"FULL_REFRESH"
读取 ByteHouse_CDW 时,支持以下高级参数,您可根据实际情况进行配置:
参数名 | 描述 | 默认值 |
---|---|---|
job.reader.split_config | 设置任务分片数量配置参数。 | 分片数是和并发数相同 |
job.reader.string_split_size | 设置分片大小。
| 1000000 |
job.reader.customized_connection_properties | 读取 ByteHouse 超时设置参数。 |
批式写入 ByteHouse_CDW 时,支持以下高级参数,您可根据实际情况进行配置:
参数名 | 描述 | 默认值 |
---|---|---|
job.writer.flush_interval | 写入 buffer 的刷新时间,默认 60000 毫秒 | 60000 |
job.writer.buffer_count | 写入 buffer 记录条数,默认 8192 | 8192 |
job.writer.query_timeout | 设定查询超时退出时间,默认 30000 毫秒 | 30000 |
job.writer.skip_delete_task | 写入 ByteHouse CDW 是通过导入任务方式,默认任务执行完,再删除导入任务,通过此参数,您可设置是否跳过删除导入任务 ; | false |
job.writer.cfs_write_batch_size |
| 4096/8192 |
job.writer.bh_ce_partition_type | 显示的指定 ByteHouse 的分区字段为 string 类型,当分区字段使用函数时,需要使用此高级参数函数。 | string |
job.writer.loading_mode | 高级参数 job.writer.loading_mode 可设置为 FULL_REFRESH 或 INCREMENTAL,默认为 INCREMENTAL:
| INCREMENTAL |
job.writer.extraProperties | 添加此参数,数据导入 ByteHouse CDW 时,支持原子性导入数据。 | 无 |
job.writer.bh_connection_properties | Map<String,String> 类型。 | 无 |
job.writer.session_properties | Map<String,String> 类型。 | 无 |