在 ByteHouse 中,您可以直接通过 Kafka 或 Confluent Cloud 流式传输数据。Kafka 数据导入任务将持续运行,读取 Topic 中的消息。ByteHouse 的 Kafka 任务可以保证 exactly once
,您的数据在消费后即可立即访问。
同时可以随时停止数据导入任务以减少资源使用,并在任何必要的时候恢复该任务。ByteHouse 将在内部记录 offset,以确保停止/恢复过程中不会丢失数据。
当前已经支持的 Kafka 消息格式为:
支持的 Kafka/Confluent Cloud 版本:0.10 及以上
要将 Kafka 数数据迁移到ByteHouse,需要确保 Kafka 和 ByteHouse 之间的访问权限配置正确。
需要在Kafka中授予4个权限:
有关通过 Kafka 授权命令行界面授予权限的更多信息,请单击此处。
Kafka 数据源
类型。您可以将任何需要的名称填入源名称中,并提供 broker 地址(可以用逗号,
分隔)。如果您的 Kafka 需要身份验证,您可以选择授权模式并提供对应凭证。
4. 选择数据源后,您可以进一步选择要加载的导入任务的 Topic。您可以选择为该 Topic 创建一个消费者组。然后您可以指定已支持的消费格式。
5. 定义 Topic Schema 解析
WHERE column1 = 'abc'
。(注意,此功能仅适用于新建的Kafka 导入任务)在数据加载页面,您将看到所有类型的所有数据导入任务。
您可以如下图筛选按钮过滤任务:
开启
。停止
。