Kubernetes (minikube) gousse OOMKilled avec apparemment beaucoup de mémoire à gauche du nœud
Je suis en utilisant minikube, en commençant avec
minikube start --memory 8192
Pour 8 go de RAM pour le nœud.
Je suis l'allocation de gousses avec les contraintes de ressources
resources:
limits:
memory: 256Mi
requests:
memory: 256Mi
Donc, 256 mo de RAM pour chaque nœud qui pourrait me donner, je suppose, 32 gousses jusqu'à 8 go de mémoire limite a été atteinte, mais le problème est qu'à chaque fois que j'arrive à la 8ème gousse d'être déployé, le 9 ne sera jamais exécuté, car il est constamment OOMKilled.
Pour le contexte, chaque pod est une application Java avec un frolvlad/alpine-oraclejdk8:slim conteneur Docker a couru avec -Xmx512m -Xms128m (même si la JVM est en effet à l'aide de la pleine 512 mo au lieu de 256 mo, je serais encore loin de l'16 pod limite de frapper les 8 go de la pac).
Ce qui me manque ici? Pourquoi sont des gousses OOMKilled avec apparemment autant plus librement affectables mémoire à gauche?
Merci d'avance
Vous devez vous connecter pour publier un commentaire.
Vous devez comprendre la façon dont les requêtes et les limites de travail.
Demandes sont les exigences pour le montant de allocateable ressources requred sur le nœud pour un pod pour obtenir prévue sur elle. Ce ne seront pas causer des OOMs, ils seront la cause de la gousse de ne pas obtenir prévue.
Limites de l'autre côté, il est difficile de limites pour les pod. Le pod seront plafonnés à ce niveau. Donc, même si vous avez de 16 go de RAM libre, mais ont un 256MiB limite, dès que votre pod atteint ce niveau, il fera l'expérience d'un OOM tuer.
Si vous le souhaitez, vous pouvez définir uniquement les demandes. Ensuite, votre gousses sera en mesure de développer à plein nœud de la capacité, sans être plafonné.
https://kubernetes.io/docs/concepts/configuration/manage-compute-resources-container/