调用 ModifyImportTask 接口修改指定的数据导入任务。
下表仅列出该接口特有的请求参数和部分公共参数。更多信息请见公共参数。
参数 | 类型 | 是否必选 | 示例值 | 描述 |
---|---|---|---|---|
Description | String | 否 | this is a task | 数据导入任务描述。 |
ImportSourceInfo | Object of ImportSourceInfo | 是 | / | 数据导入任务的导入源端信息。 |
ProjectID | String | 否 | fc69**** | 用于存储数据的日志项目 ID。 |
SourceType | String | 是 | tos | 导入源端类型。 |
Status | Integer | 是 |
| 数据导入任务的状态。
|
TargetInfo | Object of TargetInfo | 是 | / | 数据导入任务的输出端信息。 |
TaskId | String | 是 | 841c3908-09e8-4811-bdb4-2b77dd4**** | 数据导入任务 ID。 |
TaskName | String | 否 | task-name-1 | 数据导入任务名称。 |
TopicID | String | 否 | fa************ | 用于存储数据的日志主题 ID。 |
参数 | 类型 | 是否必选 | 示例值 | 描述 |
---|---|---|---|---|
TosSourceInfo | Object of TosSourceInfo | 否 | / | TOS 导入源端信息。 |
KafkaSourceInfo | Object of KafkaSourceInfo | 否 | / | Kafka 导入源端信息。 |
参数 | 类型 | 是否必选 | 示例值 | 描述 |
---|---|---|---|---|
Region | String | 是 | cn-shanghai | 地域 ID。 |
LogType | String | 是 |
| 导入时指定日志解析类型。
|
ExtractRule | Object of ExtractRule | 否 | / | 日志提取规则。 |
参数 | 类型 | 是否必选 | 示例值 | 描述 |
---|---|---|---|---|
bucket | String | 否 | import01 | 日志文件所在的 TOS 存储桶。 |
prefix | String | 否 | accesslog/ | 待导入的文件在 TOS 存储桶中的路径。 |
region | String | 否 | cn-shanghai | TOS 存储桶所在的地域。支持跨地域导入数据。 |
compress_type | String | 否 |
| TOS 存储桶中数据的压缩模式。
|
参数 | 类型 | 是否必选 | 示例值 | 描述 |
---|---|---|---|---|
host | String | 否 |
| 不同类型的 Kafka 集群对应的服务地址不同,详细说明如下:
|
group | String | 否 | mygroup | Kafka 消费组。如果不填,系统将自动创建 Kafka 消费组。 |
topic | String | 否 | test | Kafka Topic 名称。 多个 Kafka Topic 之间应使用半角逗号(,)分隔。 |
encode | String | 否 | UTF-8 | 数据的编码格式。可选值包括 UTF-8、GBK。 |
password | String | 否 | / | 用于身份认证的 Kafka SASL 用户密码。 |
protocol | String | 否 | plaintext | 安全传输协议,可选值包括 plaintext、sasl_ssl、ssl 和 sasl_plaintext。 |
username | String | 否 | / | 用于身份认证的 Kafka SASL 用户名。 |
mechanism | String | 否 | PLAIN | 密码认证机制,可选值包括 PLAIN、SCRAM-SHA-256 和 SCRAM-SHA-512。 |
instance_id | String | 否 | kafka-cnngbnntswg1**** | 当您使用的是火山引擎消息队列 Kafka 版时,应设置为 Kafka 实例 ID。 |
is_need_auth | Boolean | 否 | true | 是否开启鉴权。如果您使用的是公网服务地址,建议开启鉴权。 |
initial_offset | Integer | 否 |
| 数据导入的起始位置。可选值:
|
time_source_default | Integer | 否 |
| 指定日志时间。可选值:
|
参数 | 类型 | 是否必选 | 示例值 | 描述 |
---|---|---|---|---|
Keys | Array of String | 否 |
| 日志字段名称(Key)列表。
|
Quote | String | 否 | " | 引用符。被引用符包裹的内容不会被分隔而是会被解析为一个完整的字段。当且仅当 LogType 为 delimiter_log 时有效。 |
TimeKey | String | 否 |
| 日志时间字段的字段名称。如果将日志中的指定时间字段作为日志时间戳,则需要填写 TimeKey 和 TimeFormat。 |
LogRegex | String | 否 |
| 整条日志需要匹配的正则表达式。
|
TimeZone | String | 否 |
| 时区,支持机器时区(默认)和自定义时区。其中,自定义时区支持 GMT 和 UTC。
|
Delimiter | String | 否 | # | 日志分隔符。当且仅当 LogType 为 delimiter_log 时有效。 |
TimeFormat | String | 否 |
| 时间字段的解析格式。如果将日志中的指定时间字段作为日志时间戳,则需要填写 TimeKey 和 TimeFormat。
|
SkipLineCount | Integer | 否 |
| 跳过的日志行数。例如设置为 1,则导入日志时,将从 CSV 文件的第 2 行开始导入。 |
UnMatchLogKey | String | 否 |
| 当上传解析失败的日志时,解析失败的日志的 key 名称。 |
TimeExtractRegex | String | 否 | [0-9]{0,2}\/[0-9a-zA-Z]+\/[0-9:,]+ | 提取时间的正则表达式,用于提取 TimeKey 字段中的时间值并解析为对应的采集时间。 |
UnMatchUpLoadSwitch | Boolean | 否 |
| 是否上传解析失败的日志。UnMatchUpLoadSwitch=true 和 UnMatchLogKey 必须成对出现。
|
本接口无特有的返回参数。更多信息请见返回结构。
PUT https://tls-{Region}.ivolces.com/ModifyImportTask HTTP/1.1 Content-Type: application/json { "ProjectID": "d1987480-*****-b403-4d087a7b866a", "TopicID": "fbef6560-******-83b5-4c6e345e3bb8", "TaskId": "53f69c58-******-8b4c-978eeaf6f8da", "TaskName": "import-kafka", "SourceType": "kafka", "Status": 5, "Description": "kafka-import desc", "ImportSourceInfo": { "KafkaSourceInfo": { "host": "10.249.**.*:9192", "topic": "app", "group": "TLS-f32f3e5f-c5b0-4a39-****-5c0e304da293", "initial_offset": 0, "encode": "UTF-8", "time_source_default": 0, "is_need_auth": false, "protocol": "", "mechanism": "", "username": "", "password": "" } }, "TargetInfo":{ "Region": "cn-shanghai", "LogType": "json_log" } }
Content-Type: application/json; charset=utf-8 {}
您可访问公共错误码,获取更多错误码信息。