Redis Pods 无法加入 Redis 集群
Redis Pods are not able to join Redis cluster
我想在 kubernetes 中创建 6 个节点的 redis 集群。我是 运行 kubernetes 使用 Minikube。
下面是我创建 6 节点集群的实现。
kind: StatefulSet
metadata:
generation: 1
labels:
app: demo-app
name: demo-app
namespace: default
spec:
podManagementPolicy: OrderedReady
replicas: 6
revisionHistoryLimit: 10
selector:
matchLabels:
app: demo-app
serviceName: ""
template:
metadata:
creationTimestamp: null
labels:
app: demo-app
spec:
containers:
- command:
- redis-server
- --port 6379
- --cluster-enabled yes
- --cluster-node-timeout 5000
- --appendonly yes
- --appendfilename appendonly-6379.aof
image: redis:latest
imagePullPolicy: Always
name: demo-app
resources: {}
terminationMessagePath: /dev/termination-log
terminationMessagePolicy: File
volumeMounts:
- name: redis-pvc
mountPath: /var
- image: nginx:1.12
imagePullPolicy: IfNotPresent
name: redis-exporter
resources: {}
terminationMessagePath: /dev/termination-log
terminationMessagePolicy: File
dnsPolicy: ClusterFirst
restartPolicy: Always
schedulerName: default-scheduler
securityContext: {}
terminationGracePeriodSeconds: 30
updateStrategy:
rollingUpdate:
partition: 0
type: RollingUpdate
volumeClaimTemplates:
- metadata:
name: redis-pvc
spec:
accessModes:
- ReadWriteOnce
resources:
requests:
storage: 1Gi
创建有状态集后,我从 pods 之一内部执行 redis 创建集群命令。
redis-cli --cluster create 172.17.0.4:6379 172.17.0.5:6379 172.17.0.6:6379 172.17.0.7:6379 172.17.0.8:6379 172.17.0.9:6379 --cluster-replicas 1
这些都是 pods.With 的 ip,我可以启动我的集群。但是一旦我使用
手动删除了一个 pod
kubernetes delete pod <podname>
例如删除IP地址为172.17.0.6:6379的redis节点本应master.After删除redis集群状态为:
127.0.0.1:6379> cluster nodes
1c8c238c58d99181018b37af44c2ebfe049e4564 172.17.0.9:6379@16379 slave 4b75e95772887e76eb3d0c9518d13def097ce5fd 0 1579496695000 6 connected
96e6be88d29d847aed9111410cb0f790db068d0e 172.17.0.8:6379@16379 slave 0db23edf54bb57f7db1e2c9eb182ce956229d16e 0 1579496696596 5 connected
c8be98b16a8fa7c1c9c2d43109abafefc803d345 172.17.0.7:6379@16379 master - 0 1579496695991 7 connected 10923-16383
0db23edf54bb57f7db1e2c9eb182ce956229d16e 172.17.0.4:6379@16379 myself,master - 0 1579496694000 1 connected 0-5460
4daae1051e6a72f2ffc0675649e9e2dad9430fc4 172.17.0.6:6379@16379 master,fail - 1579496680825 1579496679000 3 disconnected
4b75e95772887e76eb3d0c9518d13def097ce5fd 172.17.0.5:6379@16379 master - 0 1579496695000 2 connected 5461-10922
一段时间后它变为:
127.0.0.1:6379> cluster nodes
1c8c238c58d99181018b37af44c2ebfe049e4564 172.17.0.9:6379@16379 slave 4b75e95772887e76eb3d0c9518d13def097ce5fd 0 1579496697529 6 connected
96e6be88d29d847aed9111410cb0f790db068d0e 172.17.0.8:6379@16379 slave 0db23edf54bb57f7db1e2c9eb182ce956229d16e 0 1579496696596 5 connected
c8be98b16a8fa7c1c9c2d43109abafefc803d345 172.17.0.7:6379@16379 master - 0 1579496698031 7 connected 10923-16383
0db23edf54bb57f7db1e2c9eb182ce956229d16e 172.17.0.4:6379@16379 myself,master - 0 1579496697000 1 connected 0-5460
4daae1051e6a72f2ffc0675649e9e2dad9430fc4 :0@0 master,fail,noaddr - 1579496680825 1579496679000 3 disconnected
4b75e95772887e76eb3d0c9518d13def097ce5fd 172.17.0.5:6379@16379 master - 0 1579496697028 2 connected 5461-10922
由于redis集群提供自动故障转移,但是pod的redis无法自动加入集群?
或者我应该手动将该 pod 加入集群吗?
我强烈建议考虑为此使用 Sentinel 而不是 Redis 中的集群命令的 HA 选项。 Sentinel 正是为此而设计的。
总的来说,根据我的经验,Redis 的架构并不能很好地融入 Kubernetes 网络。告诉 Redis 实例您的从站在哪里,尤其是以编程方式,这可能是一场噩梦(正如您在必须手动触发集群时看到的那样),尤其是当您认为 pod 到 pod 的通信不符合 Kubernetes 网络层次结构时。
我不确定集群命令将如何在 Kubernetes 中运行,尤其是 pods 的短暂性。
我实际上维护了一个试图规避这些问题的 helm chart。这提供了一种机制,用于从集群外部广播您的 Redis。你可以找到它 here.
为了解释为什么这不起作用的几个场景:
如果你失去原来的master,你会如何告诉你的应用程序连接到新的master?除非你有一些抽象层单独查询他们询问谁是主人。 Sentinel 在发挥作用时确实需要做更多的工作,它的构建就是为了规避这个确切的问题。
如果您删除一个从站,因为它是通过 IP 绑定的,您将完全失去该从站,因为将创建一个新的 veth,绑定到为您的集群定义的 CIDR 中的新 IP。 6 个节点变为 5 个。您可以通过在 CIDR 上使用 /24 地址定义您的节点来解决这个问题,但是您基本上是在为每个 Redis 实例部署一个节点,这似乎打败了 orchstrator 的要点。
我已经解决了这个问题并使用这个有状态的 set yaml 创建了一个 redis 集群。
问题是我没有在持久卷中安装 集群配置 文件。集群配置文件包含其他节点的位置。现在,集群配置文件将在 pods 次重新启动后持续存在。
因为 redis 集群基于 gossip 协议工作。只需要一个活动节点就可以获取整个集群的配置。
现在stateful set的最终配置是:
apiVersion: apps/v1
kind: StatefulSet
metadata:
generation: 1
labels:
app: demo-app
name: demo-app
namespace: default
spec:
podManagementPolicy: OrderedReady
replicas: 6
revisionHistoryLimit: 10
selector:
matchLabels:
app: demo-app
serviceName: ""
template:
metadata:
creationTimestamp: null
labels:
app: demo-app
spec:
containers:
- command:
- redis-server
- --port 6379
- --cluster-enabled yes
- --cluster-node-timeout 5000
- --appendonly yes
- --cluster-config-file /var/cluster-config.conf
- --appendfilename appendonly-6379.aof
image: redis
imagePullPolicy: Always
name: demo-app
resources: {}
terminationMessagePath: /dev/termination-log
terminationMessagePolicy: File
volumeMounts:
- name: redis-pvc
mountPath: /var
- image: nginx:1.12
imagePullPolicy: IfNotPresent
name: redis-exporter
resources: {}
terminationMessagePath: /dev/termination-log
terminationMessagePolicy: File
dnsPolicy: ClusterFirst
restartPolicy: Always
schedulerName: default-scheduler
securityContext: {}
terminationGracePeriodSeconds: 30
updateStrategy:
rollingUpdate:
partition: 0
type: RollingUpdate
volumeClaimTemplates:
- metadata:
name: redis-pvc
spec:
accessModes:
- ReadWriteOnce
resources:
requests:
storage: 1Gi
我所做的唯一更改是添加
--cluster-config-file /var/cluster-config.conf 启动 redis-server 时的参数。
我想在 kubernetes 中创建 6 个节点的 redis 集群。我是 运行 kubernetes 使用 Minikube。
下面是我创建 6 节点集群的实现。
kind: StatefulSet
metadata:
generation: 1
labels:
app: demo-app
name: demo-app
namespace: default
spec:
podManagementPolicy: OrderedReady
replicas: 6
revisionHistoryLimit: 10
selector:
matchLabels:
app: demo-app
serviceName: ""
template:
metadata:
creationTimestamp: null
labels:
app: demo-app
spec:
containers:
- command:
- redis-server
- --port 6379
- --cluster-enabled yes
- --cluster-node-timeout 5000
- --appendonly yes
- --appendfilename appendonly-6379.aof
image: redis:latest
imagePullPolicy: Always
name: demo-app
resources: {}
terminationMessagePath: /dev/termination-log
terminationMessagePolicy: File
volumeMounts:
- name: redis-pvc
mountPath: /var
- image: nginx:1.12
imagePullPolicy: IfNotPresent
name: redis-exporter
resources: {}
terminationMessagePath: /dev/termination-log
terminationMessagePolicy: File
dnsPolicy: ClusterFirst
restartPolicy: Always
schedulerName: default-scheduler
securityContext: {}
terminationGracePeriodSeconds: 30
updateStrategy:
rollingUpdate:
partition: 0
type: RollingUpdate
volumeClaimTemplates:
- metadata:
name: redis-pvc
spec:
accessModes:
- ReadWriteOnce
resources:
requests:
storage: 1Gi
创建有状态集后,我从 pods 之一内部执行 redis 创建集群命令。
redis-cli --cluster create 172.17.0.4:6379 172.17.0.5:6379 172.17.0.6:6379 172.17.0.7:6379 172.17.0.8:6379 172.17.0.9:6379 --cluster-replicas 1
这些都是 pods.With 的 ip,我可以启动我的集群。但是一旦我使用
手动删除了一个 podkubernetes delete pod <podname>
例如删除IP地址为172.17.0.6:6379的redis节点本应master.After删除redis集群状态为:
127.0.0.1:6379> cluster nodes
1c8c238c58d99181018b37af44c2ebfe049e4564 172.17.0.9:6379@16379 slave 4b75e95772887e76eb3d0c9518d13def097ce5fd 0 1579496695000 6 connected
96e6be88d29d847aed9111410cb0f790db068d0e 172.17.0.8:6379@16379 slave 0db23edf54bb57f7db1e2c9eb182ce956229d16e 0 1579496696596 5 connected
c8be98b16a8fa7c1c9c2d43109abafefc803d345 172.17.0.7:6379@16379 master - 0 1579496695991 7 connected 10923-16383
0db23edf54bb57f7db1e2c9eb182ce956229d16e 172.17.0.4:6379@16379 myself,master - 0 1579496694000 1 connected 0-5460
4daae1051e6a72f2ffc0675649e9e2dad9430fc4 172.17.0.6:6379@16379 master,fail - 1579496680825 1579496679000 3 disconnected
4b75e95772887e76eb3d0c9518d13def097ce5fd 172.17.0.5:6379@16379 master - 0 1579496695000 2 connected 5461-10922
一段时间后它变为:
127.0.0.1:6379> cluster nodes
1c8c238c58d99181018b37af44c2ebfe049e4564 172.17.0.9:6379@16379 slave 4b75e95772887e76eb3d0c9518d13def097ce5fd 0 1579496697529 6 connected
96e6be88d29d847aed9111410cb0f790db068d0e 172.17.0.8:6379@16379 slave 0db23edf54bb57f7db1e2c9eb182ce956229d16e 0 1579496696596 5 connected
c8be98b16a8fa7c1c9c2d43109abafefc803d345 172.17.0.7:6379@16379 master - 0 1579496698031 7 connected 10923-16383
0db23edf54bb57f7db1e2c9eb182ce956229d16e 172.17.0.4:6379@16379 myself,master - 0 1579496697000 1 connected 0-5460
4daae1051e6a72f2ffc0675649e9e2dad9430fc4 :0@0 master,fail,noaddr - 1579496680825 1579496679000 3 disconnected
4b75e95772887e76eb3d0c9518d13def097ce5fd 172.17.0.5:6379@16379 master - 0 1579496697028 2 connected 5461-10922
由于redis集群提供自动故障转移,但是pod的redis无法自动加入集群?
或者我应该手动将该 pod 加入集群吗?
我强烈建议考虑为此使用 Sentinel 而不是 Redis 中的集群命令的 HA 选项。 Sentinel 正是为此而设计的。
总的来说,根据我的经验,Redis 的架构并不能很好地融入 Kubernetes 网络。告诉 Redis 实例您的从站在哪里,尤其是以编程方式,这可能是一场噩梦(正如您在必须手动触发集群时看到的那样),尤其是当您认为 pod 到 pod 的通信不符合 Kubernetes 网络层次结构时。
我不确定集群命令将如何在 Kubernetes 中运行,尤其是 pods 的短暂性。
我实际上维护了一个试图规避这些问题的 helm chart。这提供了一种机制,用于从集群外部广播您的 Redis。你可以找到它 here.
为了解释为什么这不起作用的几个场景:
如果你失去原来的master,你会如何告诉你的应用程序连接到新的master?除非你有一些抽象层单独查询他们询问谁是主人。 Sentinel 在发挥作用时确实需要做更多的工作,它的构建就是为了规避这个确切的问题。
如果您删除一个从站,因为它是通过 IP 绑定的,您将完全失去该从站,因为将创建一个新的 veth,绑定到为您的集群定义的 CIDR 中的新 IP。 6 个节点变为 5 个。您可以通过在 CIDR 上使用 /24 地址定义您的节点来解决这个问题,但是您基本上是在为每个 Redis 实例部署一个节点,这似乎打败了 orchstrator 的要点。
我已经解决了这个问题并使用这个有状态的 set yaml 创建了一个 redis 集群。 问题是我没有在持久卷中安装 集群配置 文件。集群配置文件包含其他节点的位置。现在,集群配置文件将在 pods 次重新启动后持续存在。
因为 redis 集群基于 gossip 协议工作。只需要一个活动节点就可以获取整个集群的配置。
现在stateful set的最终配置是:
apiVersion: apps/v1
kind: StatefulSet
metadata:
generation: 1
labels:
app: demo-app
name: demo-app
namespace: default
spec:
podManagementPolicy: OrderedReady
replicas: 6
revisionHistoryLimit: 10
selector:
matchLabels:
app: demo-app
serviceName: ""
template:
metadata:
creationTimestamp: null
labels:
app: demo-app
spec:
containers:
- command:
- redis-server
- --port 6379
- --cluster-enabled yes
- --cluster-node-timeout 5000
- --appendonly yes
- --cluster-config-file /var/cluster-config.conf
- --appendfilename appendonly-6379.aof
image: redis
imagePullPolicy: Always
name: demo-app
resources: {}
terminationMessagePath: /dev/termination-log
terminationMessagePolicy: File
volumeMounts:
- name: redis-pvc
mountPath: /var
- image: nginx:1.12
imagePullPolicy: IfNotPresent
name: redis-exporter
resources: {}
terminationMessagePath: /dev/termination-log
terminationMessagePolicy: File
dnsPolicy: ClusterFirst
restartPolicy: Always
schedulerName: default-scheduler
securityContext: {}
terminationGracePeriodSeconds: 30
updateStrategy:
rollingUpdate:
partition: 0
type: RollingUpdate
volumeClaimTemplates:
- metadata:
name: redis-pvc
spec:
accessModes:
- ReadWriteOnce
resources:
requests:
storage: 1Gi
我所做的唯一更改是添加 --cluster-config-file /var/cluster-config.conf 启动 redis-server 时的参数。