在自己的 kubernetes 集群中启动 spinnaker 挂在 data-cassandra-keys 上?
Starting spinnaker in own kubernetes cluster hangs at data-cassandra-keys?
我想将spinnaker部署到我们公司的kubernetes集群中。
我克隆了 spinnaker 的主分支并相应地修改了 spinnaker-local 文件。我们使用内部 docker 注册表,因此我将所需的图像从 dockerhub 复制到我们自己的。
当我启动 "startup-all.sh" 脚本时,redis 映像似乎启动了。
然后它会尝试启动 cassandra 数据库。创建作业 "data-cassandra-keys" 未完成。它一遍又一遍地创建新的 pods。
我尝试使用以下方法获取一些日志:
c:\spinnaker\experimental\kubernetes>kubectl log data-cassandra-keys-w4yil
W0601 16:20:02.457396 10336 cmd.go:207] log is DEPRECATED and will be removed in a future version. Use logs instead.
Connecting to...
172.23.77.106
9042
Connection error: ('Unable to connect to any servers', {'172.23.77.106': error(None, "Tried connecting to [('172.23.77.106', 9042)]. Last error: timed out")})
Failed to add keyspace create_echo_keyspace.cql
有几十个 data-cassandra-keys-xxxxx - 都显示相同并且 kubernetes 不断创建新的。
启动脚本卡在:
SUCCESS=$(kubectl get job data-cassandra-keys --namespace=spinnaker -o=jsonpath="{.status.succeeded}")
while [ $SUCCESS -ne "1" ]; do
SUCCESS=$(kubectl get job data-cassandra-keys --namespace=spinnaker -o=jsonpath="{.status.succeeded}")
done
我不知道我必须更改什么设置才能使它正常工作(cassandra 如何知道要连接哪个主机)。我也不太明白为什么 "data-cassandra-keys" 作业会一遍又一遍地重新创建。
活动满满:
6m 6m 1 data-cassandra-keys-sxp3o Pod Normal Scheduled {default-scheduler } Successfully assigned data-cassandra-keys-sxp3o to ld9c0193.corp.test
6m 6m 1 data-cassandra-keys-sxp3o Pod spec.containers{cassandra-keys} Normal Pulled {kubelet ld9c0193.corp.test} Container image "docker-registry.corp.ch/kubernetes-spinnaker/cassandra-keys:v2" already present on machine
6m 6m 1 data-cassandra-keys-sxp3o Pod spec.containers{cassandra-keys} Normal Created {kubelet ld9c0193.corp.test} Created container with docker id 46de7bd5f425
6m 6m 1 data-cassandra-keys-sxp3o Pod spec.containers{cassandra-keys} Normal Started {kubelet ld9c0193.corp.test} Started container with docker id 46de7bd5f425
任何有关正在发生的事情或在哪里查看的提示都将受到赞赏:)
谢谢!
"data-cassandra-keys" pod 由 Kubernetes 作业控制器重新创建,但可能应该更改其重启策略以避免创建太多死机 pods。它会重试一段时间,因为 Cassandra 可能需要一段时间才能启动,因此在第一次尝试创建密钥空间后不应失败。
一个已知问题是,由于权限问题,Cassandra 在配置为使用永久磁盘时无法正确启动。您检查过 Cassandra pod 的日志了吗?数据-cassandra-v000-xxxx
我想将spinnaker部署到我们公司的kubernetes集群中。 我克隆了 spinnaker 的主分支并相应地修改了 spinnaker-local 文件。我们使用内部 docker 注册表,因此我将所需的图像从 dockerhub 复制到我们自己的。
当我启动 "startup-all.sh" 脚本时,redis 映像似乎启动了。 然后它会尝试启动 cassandra 数据库。创建作业 "data-cassandra-keys" 未完成。它一遍又一遍地创建新的 pods。
我尝试使用以下方法获取一些日志:
c:\spinnaker\experimental\kubernetes>kubectl log data-cassandra-keys-w4yil
W0601 16:20:02.457396 10336 cmd.go:207] log is DEPRECATED and will be removed in a future version. Use logs instead.
Connecting to...
172.23.77.106
9042
Connection error: ('Unable to connect to any servers', {'172.23.77.106': error(None, "Tried connecting to [('172.23.77.106', 9042)]. Last error: timed out")})
Failed to add keyspace create_echo_keyspace.cql
有几十个 data-cassandra-keys-xxxxx - 都显示相同并且 kubernetes 不断创建新的。
启动脚本卡在:
SUCCESS=$(kubectl get job data-cassandra-keys --namespace=spinnaker -o=jsonpath="{.status.succeeded}")
while [ $SUCCESS -ne "1" ]; do
SUCCESS=$(kubectl get job data-cassandra-keys --namespace=spinnaker -o=jsonpath="{.status.succeeded}")
done
我不知道我必须更改什么设置才能使它正常工作(cassandra 如何知道要连接哪个主机)。我也不太明白为什么 "data-cassandra-keys" 作业会一遍又一遍地重新创建。
活动满满:
6m 6m 1 data-cassandra-keys-sxp3o Pod Normal Scheduled {default-scheduler } Successfully assigned data-cassandra-keys-sxp3o to ld9c0193.corp.test
6m 6m 1 data-cassandra-keys-sxp3o Pod spec.containers{cassandra-keys} Normal Pulled {kubelet ld9c0193.corp.test} Container image "docker-registry.corp.ch/kubernetes-spinnaker/cassandra-keys:v2" already present on machine
6m 6m 1 data-cassandra-keys-sxp3o Pod spec.containers{cassandra-keys} Normal Created {kubelet ld9c0193.corp.test} Created container with docker id 46de7bd5f425
6m 6m 1 data-cassandra-keys-sxp3o Pod spec.containers{cassandra-keys} Normal Started {kubelet ld9c0193.corp.test} Started container with docker id 46de7bd5f425
任何有关正在发生的事情或在哪里查看的提示都将受到赞赏:)
谢谢!
"data-cassandra-keys" pod 由 Kubernetes 作业控制器重新创建,但可能应该更改其重启策略以避免创建太多死机 pods。它会重试一段时间,因为 Cassandra 可能需要一段时间才能启动,因此在第一次尝试创建密钥空间后不应失败。
一个已知问题是,由于权限问题,Cassandra 在配置为使用永久磁盘时无法正确启动。您检查过 Cassandra pod 的日志了吗?数据-cassandra-v000-xxxx