Kafka Hdfs 2 接收器连接器无法在 hdfs 上写入
Kafka Hdfs 2 Sink connector not able to write on hdfs
以下是我的kafka连接器json文件:
curl -s -k -X POST http://cpnode.local.lan:8083/connectors -H "Content-Type: application/json" --data '{
"name":"jdbc-Hdfs2-Sink-Connector",
"config":{
"tasks.max":"1",
"batch.size":"1000",
"batch.max.rows":"1000",
"hdfs.poll.interval.ms":"500",
"connector.class":"io.confluent.connect.hdfs.HdfsSinkConnector",
"hdfs.url":"hdfs://hadoopnode.local.lan:9000",
"topics":"BookList2",
"flush.size":"1",
"confluent.topic.bootstrap.servers":"cpnode.local.lan:9092",
"confluent.topic.replication.factor":"1",
"value.converter":"io.confluent.connect.avro.AvroConverter",
"value.converter.schemas.enable":"true",
"value.converter.schema.registry.url":"http://cpnode.local.lan:8081",
"key.converter":"io.confluent.connect.avro.AvroConverter",
"key.converter.schemas.enable":"true",
"key.converter.schema.registry.url":"http://cpnode.local.lan:8081"
}
}' | jq '.'
当我尝试使用此连接器时出现以下错误:
{
"name": "jdbc-Hdfs2-Sink-Connector",
"connector": {
"state": "RUNNING",
"worker_id": "192.168.1.153:8083"
},
"tasks": [
{
"id": 0,
"state": "FAILED",
"worker_id": "192.168.1.153:8083",
"trace": "org.apache.kafka.connect.errors.ConnectException: org.apache.hadoop.security.AccessControlException: Permission denied: user=cp-user, access=WRITE, inode=\"/\":hadoop:supergroup:drwxr-xr-x
我试过了 export HADOOP_USER_NAME=hdfs
还有
hadoop配置hdfs-site.xml
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
但我想要一个不影响安全的解决方案。
cp-user 是我的融合平台用户的名字...
confluent 和 hdfs 都在不同的虚拟机上
提前致谢....
您的用户:user=cp-user,
正在尝试 access=WRITE
、
前往地点inode=\"/\"
其中 user/group 拥有 hadoop:supergroup:drwxr-xr-x
可能的解决方案(非重叠):
- 将
cp-user
更改为hadoop
(我假设你使用的是Docker容器?如果是,请参考user
指令的Docker。否则,export HADOOP_USER_NAME=hadoop
)
- 创建并添加
cp-user
Unix 帐户到 Hadoop 集群的 NameNode 和所有数据节点
- 使用 Kerberos
以下是我的kafka连接器json文件:
curl -s -k -X POST http://cpnode.local.lan:8083/connectors -H "Content-Type: application/json" --data '{
"name":"jdbc-Hdfs2-Sink-Connector",
"config":{
"tasks.max":"1",
"batch.size":"1000",
"batch.max.rows":"1000",
"hdfs.poll.interval.ms":"500",
"connector.class":"io.confluent.connect.hdfs.HdfsSinkConnector",
"hdfs.url":"hdfs://hadoopnode.local.lan:9000",
"topics":"BookList2",
"flush.size":"1",
"confluent.topic.bootstrap.servers":"cpnode.local.lan:9092",
"confluent.topic.replication.factor":"1",
"value.converter":"io.confluent.connect.avro.AvroConverter",
"value.converter.schemas.enable":"true",
"value.converter.schema.registry.url":"http://cpnode.local.lan:8081",
"key.converter":"io.confluent.connect.avro.AvroConverter",
"key.converter.schemas.enable":"true",
"key.converter.schema.registry.url":"http://cpnode.local.lan:8081"
}
}' | jq '.'
当我尝试使用此连接器时出现以下错误:
{
"name": "jdbc-Hdfs2-Sink-Connector",
"connector": {
"state": "RUNNING",
"worker_id": "192.168.1.153:8083"
},
"tasks": [
{
"id": 0,
"state": "FAILED",
"worker_id": "192.168.1.153:8083",
"trace": "org.apache.kafka.connect.errors.ConnectException: org.apache.hadoop.security.AccessControlException: Permission denied: user=cp-user, access=WRITE, inode=\"/\":hadoop:supergroup:drwxr-xr-x
我试过了 export HADOOP_USER_NAME=hdfs
还有
hadoop配置hdfs-site.xml
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
但我想要一个不影响安全的解决方案。
cp-user 是我的融合平台用户的名字... confluent 和 hdfs 都在不同的虚拟机上
提前致谢....
您的用户:user=cp-user,
正在尝试 access=WRITE
、
前往地点inode=\"/\"
其中 user/group 拥有 hadoop:supergroup:drwxr-xr-x
可能的解决方案(非重叠):
- 将
cp-user
更改为hadoop
(我假设你使用的是Docker容器?如果是,请参考user
指令的Docker。否则,export HADOOP_USER_NAME=hadoop
) - 创建并添加
cp-user
Unix 帐户到 Hadoop 集群的 NameNode 和所有数据节点 - 使用 Kerberos