我怎样才能杀死卡夫卡集群中的分布式工作者?
How can i kill distributed worker in Kafka cluster?
我正在使用 Apache Kafka 并使用分布式工作器。我可以按如下方式启动我的工作人员:
// Command to start the distributed worker.
"bin/connect-distributed.sh config/connect-distributed.properties"
这是来自官方文档。之后我们可以创建连接器和任务。这很好用。
但是当我更改连接器或任务逻辑时,我应该将新的 jar
添加到 kafka 的类路径中。之后我应该重新启动 worker。
我不知道应该如何是对的我认为我们应该停下来 运行 工人。
但是当我想停止 worker 时,我不知道如何才能正确地做到这一点。
当然,我可以通过 ps aux | grep worker
找到我的进程,杀死它并杀死我应该通过 ps
找到的其余服务器。但我认为这是奇怪的情况。杀死两个进程不是好主意,但我找不到任何信息,我们可以如何以另一种方式做到这一点。
如果你知道正确的方法,请帮助我:)
感谢您的宝贵时间。
Killing two processes isn't good idea
ConnectDistributed
只是 一个 过程。没有单独的 REST 服务器可以停止。
是的,:connector/pause
后跟 kill <pid>
是阻止它的正确方法。
如果安装了最新版本的 Confluent Platform,您可以 stop/start 使用 systemctl
。
我正在使用 Apache Kafka 并使用分布式工作器。我可以按如下方式启动我的工作人员:
// Command to start the distributed worker.
"bin/connect-distributed.sh config/connect-distributed.properties"
这是来自官方文档。之后我们可以创建连接器和任务。这很好用。
但是当我更改连接器或任务逻辑时,我应该将新的 jar
添加到 kafka 的类路径中。之后我应该重新启动 worker。
我不知道应该如何是对的我认为我们应该停下来 运行 工人。
但是当我想停止 worker 时,我不知道如何才能正确地做到这一点。
当然,我可以通过 ps aux | grep worker
找到我的进程,杀死它并杀死我应该通过 ps
找到的其余服务器。但我认为这是奇怪的情况。杀死两个进程不是好主意,但我找不到任何信息,我们可以如何以另一种方式做到这一点。
如果你知道正确的方法,请帮助我:)
感谢您的宝贵时间。
Killing two processes isn't good idea
ConnectDistributed
只是 一个 过程。没有单独的 REST 服务器可以停止。
是的,:connector/pause
后跟 kill <pid>
是阻止它的正确方法。
如果安装了最新版本的 Confluent Platform,您可以 stop/start 使用 systemctl
。