У меня есть кластер gke-песочницы с некоторыми службами и некоторыми внутренними балансировщиками нагрузки.
Сервисы в основном определяются так:
apiVersion: v1
kind: Service
metadata:
labels:
app: my-app
name: my-app
annotations:
service.beta.kubernetes.io/aws-load-balancer-internal: 0.0.0.0/0
cloud.google.com/load-balancer-type: "Internal"
spec:
ports:
- port: 80
protocol: TCP
targetPort: 8080
selector:
app: my-app
sessionAffinity: None
type: LoadBalancer
Но в конце концов кто-то сообщает, что конечная точка больше не работает (например, два раза в неделю), я иду исследовать, а к балансировщику нагрузки больше не прикреплены группы экземпляров.
Единственные "странные" вещи, которые мы делаем, - это масштабирование всех модулей нашего приложения до 0 реплик в нерабочее время и использование вытесняемых экземпляров в пуле узлов ... Я думал, что это может быть связано с первым, но я принудительно масштабировал отключили некоторые службы, и их балансировщики нагрузки все еще в порядке.
Это может быть связано с вытесняемым, хотя, похоже, что если все модули находятся в одном экземпляре (особенно модули системы куба), когда узел отключается, модули сразу отключаются, и кажется, что он может правильно восстановиться после этого. .
Другая странная вещь, которую я вижу, - это то, что k8s-ig--foobar
имеет 0 экземпляров.
Кто-нибудь испытывал что-то подобное? Я не мог найти никаких документов по этому поводу.
kubectl describe service
? Есть какие-нибудь интересные аннотации или логи? - person Yves Junqueira   schedule 16.02.2018