我和科普斯之间有件奇怪的事。启动到新的私有网络后,似乎无法将kubectl配置到创建的集群(没有这样的主机)。
查看route53记录(api.dev.mydomain.co),我可以看到它指向一个适当的ELB。快速ELB检查显示,所有注册的实例都处于停服状态。
无法通过SSH连接到主实例(没有公共ip),甚至不能通过堡垒(使用私钥的ssh要求提供密码,我不知道->访问被拒绝)。
我尝试了几种不同的网络覆盖,以及较旧的kops版本,都不起作用。
想法还是想法?我是否遗漏了什么或我的AWS帐户配置错误?以前在不同的账户上确实有效。
kops create cluster \
--cloud aws \
--node-count 2 \
--master-count 1 \
--zones us-east-1a,us-east-1b,us-east-1c,us-east-1d,us-east-1e,us-east-1f \
--master-zones us-east-1a \
--dns-zone mydomain.co \
--node-size m4.large \
--master-size m4.large \
--topology private \
--networking canal \
--image kope.io/k8s-1.8-debian-jessie-amd64-hvm-ebs-2017-12-02 \
--name dev.mydomain.co发布于 2018-05-31 05:30:01
如果主节点不能访问因特网或解析dns,则它们可能停止服务。我会先检查VPC是否正确配置了DHCP选项集和Internet Gateway。
关于私有ssh密钥的"passphrase“,应该与我们使用"ssh-keygen”命令生成密钥时使用的相同。
https://github.com/kubernetes/kops/blob/master/docs/security.md
可以使用-- SSH - public -key选项指定ssh公钥,它缺省为~/.ssh/id_rsa.pub
https://stackoverflow.com/questions/48191570
复制相似问题