问题:使用 Kops 在 AWS 上创建一个 kubernetes 集群
Problem : creating a kubernetes cluster on AWS using Kops
我正在使用 kops
在 AWS 上设置一个新的 Kubernetes 集群。
我有一个域名,domainname.com,还有一个子域,子域。domainname.com。我将 AWS Route53 配置为添加一个与子域同名的 hostedZone。domainname.com.
在我的 domain.name 上;我为每个 NS 指定了子域。
当我运行kubectl get node
:
Unable to connect to the server: dial tcp: lookup api.subdomain.domain.com on 8.8.4.4:53: no such host
详情:
当我执行这个命令时:
kops edit cluster subdomain.domain.com --state=s3://block-state-b429
我有这个:
metadata:
creationTimestamp: "2019-09-17T22:46:45Z"
name: subdomain.domain.com
spec:
adminAccess:
- 0.0.0.0/0
channel: stable
cloudProvider: aws
configBase: s3://block-state-b429/subdomain.domain.com
dnsZone: subdomain.domain.com
etcdClusters:
- etcdMembers:
- name: eu-west-1a
zone: eu-west-1a
name: main
- etcdMembers:
- name: eu-west-1a
zone: eu-west-1a
name: events
kubernetesVersion: v1.5.8
masterPublicName: api.subdomain.domain.com
networkCIDR: 172.20.0.0/16
networking:
kubenet: {}
nonMasqueradeCIDR: 100.64.0.0/10
zones:
- cidr: 172.20.32.0/19
name: eu-west-1a
当我执行这个命令时:
cat /root/.kube/config
我得到:
apiVersion: v1
clusters:
- cluster:
certificate-authority-data:
.... (certificat)
server: https://api.subdomain.domain.com
name: subdomain.domain.com
contexts:
- context:
cluster: subdomain.domain.com
user: subdomain.domain.com
name: subdomain.domain.com
current-context: subdomain.domain.com
kind: Config
preferences: {}
users:
- name: subdomain.domain.com
user:
client-certificate-data:
.... (certificat)
password: **PASSWORD**
username: **USER**
- name: subdomain.domain.com-basic-auth
user:
password: **PASSWORD**
username: **USER**
53 号公路:
我为子域 subdomain.domain.com 创建托管区域。
NS
ns-1365.awsdns-42.org.
ns-322.awsdns-40.com.
ns-2043.awsdns-63.co.uk.
ns-909.awsdns-49.net
对于每个 NS:有人指出它在我的 domain.com
NS:
subdomain ns-1365.awsdns-42.org
subdomain ns-322.awsdns-40.com
subdomain ns-2043.awsdns-63.co.uk
subdomain ns-909.awsdns-49.net
并且我创建了我的集群:
kops create cluster \
--name=subdomain.domain.com \
--state=s3://block-state-b429 \
--zones=eu-west-1a \
--node-count=2 \
--node-size=t2.micro \
--master-size=t2.micro \
--dns-zone=subdomain.domain.com
我只更改了版本,删除了实际的集群并按照以下 link 创建了另一个集群:
https://github.com/kubernetes/kops/blob/master/docs/aws.md
没关系!
我正在使用 kops
在 AWS 上设置一个新的 Kubernetes 集群。
我有一个域名,domainname.com,还有一个子域,子域。domainname.com。我将 AWS Route53 配置为添加一个与子域同名的 hostedZone。domainname.com.
在我的 domain.name 上;我为每个 NS 指定了子域。
当我运行kubectl get node
:
Unable to connect to the server: dial tcp: lookup api.subdomain.domain.com on 8.8.4.4:53: no such host
详情:
当我执行这个命令时:
kops edit cluster subdomain.domain.com --state=s3://block-state-b429
我有这个:
metadata:
creationTimestamp: "2019-09-17T22:46:45Z"
name: subdomain.domain.com
spec:
adminAccess:
- 0.0.0.0/0
channel: stable
cloudProvider: aws
configBase: s3://block-state-b429/subdomain.domain.com
dnsZone: subdomain.domain.com
etcdClusters:
- etcdMembers:
- name: eu-west-1a
zone: eu-west-1a
name: main
- etcdMembers:
- name: eu-west-1a
zone: eu-west-1a
name: events
kubernetesVersion: v1.5.8
masterPublicName: api.subdomain.domain.com
networkCIDR: 172.20.0.0/16
networking:
kubenet: {}
nonMasqueradeCIDR: 100.64.0.0/10
zones:
- cidr: 172.20.32.0/19
name: eu-west-1a
当我执行这个命令时:
cat /root/.kube/config
我得到:
apiVersion: v1
clusters:
- cluster:
certificate-authority-data:
.... (certificat)
server: https://api.subdomain.domain.com
name: subdomain.domain.com
contexts:
- context:
cluster: subdomain.domain.com
user: subdomain.domain.com
name: subdomain.domain.com
current-context: subdomain.domain.com
kind: Config
preferences: {}
users:
- name: subdomain.domain.com
user:
client-certificate-data:
.... (certificat)
password: **PASSWORD**
username: **USER**
- name: subdomain.domain.com-basic-auth
user:
password: **PASSWORD**
username: **USER**
53 号公路:
我为子域 subdomain.domain.com 创建托管区域。
NS
ns-1365.awsdns-42.org.
ns-322.awsdns-40.com.
ns-2043.awsdns-63.co.uk.
ns-909.awsdns-49.net
对于每个 NS:有人指出它在我的 domain.com
NS:
subdomain ns-1365.awsdns-42.org
subdomain ns-322.awsdns-40.com
subdomain ns-2043.awsdns-63.co.uk
subdomain ns-909.awsdns-49.net
并且我创建了我的集群:
kops create cluster \
--name=subdomain.domain.com \
--state=s3://block-state-b429 \
--zones=eu-west-1a \
--node-count=2 \
--node-size=t2.micro \
--master-size=t2.micro \
--dns-zone=subdomain.domain.com
我只更改了版本,删除了实际的集群并按照以下 link 创建了另一个集群: https://github.com/kubernetes/kops/blob/master/docs/aws.md
没关系!