如何在 GKE 中创建具有 ReadWriteMany 访问权限的动态持久卷声明?
How to create a dynamic persistent volume claim with ReadWriteMany access in GKE?
目前 GCEPersistentDisk 本身不支持 ReadWriteMany,还有其他选项,如创建 NFS 卷的文件存储,但这里有 2 个问题:
至少需要创建 1 TB 大小
其次是手动创建 PV,然后是 PVC
在 GKE 中动态分配声明请求的最佳解决方案是什么?
如果您有动态提供的需求,您也可以尝试使用 Gluster FS or Minio。
这是一个使用 GlusterFS 动态配置的好例子:https://docs.openshift.com/container-platform/3.9/install_config/storage_examples/gluster_dynamic_example.html
您必须创建 存储类
kind: StorageClass
apiVersion: storage.k8s.io/v1
metadata:
name: glusterfs
provisioner: kubernetes.io/glusterfs
parameters:
resturl: "http://10.42.0.0:8080"
restauthenabled: "false"
并创建具有特定 storageclass
的 PVC
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: gluster1
spec:
accessModes:
- ReadWriteMany
resources:
requests:
storage: 30Gi
storageClassName: glusterfs
此外,您可以创建 1 到 63.9 TiB 之间的 Filestore 文件共享
和 动态配置:https://cloud.google.com/community/tutorials/gke-filestore-dynamic-provisioning
目前 GCEPersistentDisk 本身不支持 ReadWriteMany,还有其他选项,如创建 NFS 卷的文件存储,但这里有 2 个问题:
至少需要创建 1 TB 大小
其次是手动创建 PV,然后是 PVC
在 GKE 中动态分配声明请求的最佳解决方案是什么?
如果您有动态提供的需求,您也可以尝试使用 Gluster FS or Minio。
这是一个使用 GlusterFS 动态配置的好例子:https://docs.openshift.com/container-platform/3.9/install_config/storage_examples/gluster_dynamic_example.html
您必须创建 存储类
kind: StorageClass
apiVersion: storage.k8s.io/v1
metadata:
name: glusterfs
provisioner: kubernetes.io/glusterfs
parameters:
resturl: "http://10.42.0.0:8080"
restauthenabled: "false"
并创建具有特定 storageclass
的 PVCapiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: gluster1
spec:
accessModes:
- ReadWriteMany
resources:
requests:
storage: 30Gi
storageClassName: glusterfs
此外,您可以创建 1 到 63.9 TiB 之间的 Filestore 文件共享 和 动态配置:https://cloud.google.com/community/tutorials/gke-filestore-dynamic-provisioning