У меня есть 2 кластера EKS в 2 разных учетных записях AWS и, я могу предположить, с разными брандмауэрами (к которым у меня нет доступа). С первым (Dev) все в порядке, однако с той же конфигурацией модули кластера UAT изо всех сил пытаются разрешить DNS. Узлы могут разрешиться и вроде бы все в порядке.
1) ping 8.8.8.8 работает
--- 8.8.8.8 ping statistics ---
4 packets transmitted, 4 received, 0% packet loss, time 3003ms
2) Я могу пропинговать IP-адрес Google (и других), но не настоящие DNS-имена.
Наша конфигурация:
- настроен с помощью Terraform.
- Рабочие узлы и плоскость управления SG такие же, как и у разработчиков. Я считаю, что это нормально.
- Добавлены 53 TCP и 53 UDP для входящего + исходящего NACl (просто чтобы убедиться, что 53 действительно открыты ...). Добавлено 53 TCP и 53 UDP исходящих с рабочих узлов.
- Мы используем
ami-059c6874350e63ca9
с версией 1.14 kubernetes.
Я не уверен, что проблема связана с брандмауэром, ядрами, моей конфигурацией, которую нужно обновить, или "глупой ошибкой". Любая помощь будет оценена по достоинству.
kubectl get services -o yaml
, чтобы экспортировать его и вставить свой вопрос. - person Will R.O.F.   schedule 10.01.2020