ERROR: using kafka-connect-cdc-mssql:1.0.0-preview
ERROR: using kafka-connect-cdc-mssql:1.0.0-preview
我尝试使用 Kafka 连接器读取日志事务,使用连接器 kafka-connect-cdc-mssql:1.0.0-preview
我正在使用 Confluent CLI,我已经修改了配置文件:
etc/schema-registry/connect-avro-standalone.properties
我补充:
plugin.path=/usr/share/java,/tmp/Softwares/confluent-hub-client-latest/share/confluent-hub-components/confluentinc-kafka-connect-cdc-mssql/lib
我有这个问题:当我 运行 命令
$合流负载-d
$ confluent load mssqlCDC -d /tmp/Softwares/confluent-hub-client-latest/share/confluent-hub-components/confluentinc-kafka-connect-cdc-mssql/etc/mssqlsource.properties
我收到此错误消息:
(23) Failed writing body
我的存档mssqlsource.properties:
name=mssqlsource
tasks.max=2
connector.class=io.confluent.connect.cdc.mssql.MsSqlSourceConnector
initial.database=(MYDATABASE)
server.name=(MYSERVER)
server.port=(PORT)
username=(MYUSER)
password=(MYPASS)
change.tracking.tables=(MYTABLE)
confluent load
命令实际上是 运行 在引擎盖下使用 curl
命令,自己 运行 它可能更容易得到正确的错误,转换您的属性文件到 mssqlsource.json
文件:
{
"name": "mssqlsource",
"config": {
"tasks.max": 2,
"connector.class": "io.confluent.connect.cdc.mssql.MsSqlSourceConnector",
"initial.database": "(MYDATABASE)",
"server.name": "(MYSERVER)",
"server.port": "(PORT)",
"username": "(MYUSER)",
"password": "(MYPASS)",
"change.tracking.tables": "(MYTABLE)"
}
}
然后运行curl -XPOST -H "Content-Type: application/json" --data @/path/to/mssqlsource.json connect-host:8083/connectors
这将为您提供更好的错误消息,并且更接近使用 Kafka Connect 的真实示例,因为 confluent
命令行适用于本地开发环境。
我尝试使用 Kafka 连接器读取日志事务,使用连接器 kafka-connect-cdc-mssql:1.0.0-preview
我正在使用 Confluent CLI,我已经修改了配置文件:
etc/schema-registry/connect-avro-standalone.properties
我补充:
plugin.path=/usr/share/java,/tmp/Softwares/confluent-hub-client-latest/share/confluent-hub-components/confluentinc-kafka-connect-cdc-mssql/lib
我有这个问题:当我 运行 命令 $合流负载-d
$ confluent load mssqlCDC -d /tmp/Softwares/confluent-hub-client-latest/share/confluent-hub-components/confluentinc-kafka-connect-cdc-mssql/etc/mssqlsource.properties
我收到此错误消息:
(23) Failed writing body
我的存档mssqlsource.properties:
name=mssqlsource
tasks.max=2
connector.class=io.confluent.connect.cdc.mssql.MsSqlSourceConnector
initial.database=(MYDATABASE)
server.name=(MYSERVER)
server.port=(PORT)
username=(MYUSER)
password=(MYPASS)
change.tracking.tables=(MYTABLE)
confluent load
命令实际上是 运行 在引擎盖下使用 curl
命令,自己 运行 它可能更容易得到正确的错误,转换您的属性文件到 mssqlsource.json
文件:
{
"name": "mssqlsource",
"config": {
"tasks.max": 2,
"connector.class": "io.confluent.connect.cdc.mssql.MsSqlSourceConnector",
"initial.database": "(MYDATABASE)",
"server.name": "(MYSERVER)",
"server.port": "(PORT)",
"username": "(MYUSER)",
"password": "(MYPASS)",
"change.tracking.tables": "(MYTABLE)"
}
}
然后运行curl -XPOST -H "Content-Type: application/json" --data @/path/to/mssqlsource.json connect-host:8083/connectors
这将为您提供更好的错误消息,并且更接近使用 Kafka Connect 的真实示例,因为 confluent
命令行适用于本地开发环境。