Le chargement d'un grand hprof en jhat
J'ai un 6.5 GO Hprof fichier qui a été sous-évaluées par une JVM 64 bits à l'aide de la -XX:-HeapDumpOnOutOfMemoryError
option. Je l'ai assis sur un 16 GO machine 64 bits, et essaie de le faire en jhat, mais il continue d'être à court de mémoire. J'ai essayé en passant jvm arguments pour un minimum de paramètres, mais il rejette toute minimum, et semble manquer de mémoire avant de frapper le maximum.
Il semble un peu idiot qu'une jvm en cours d'exécution hors de vidages de mémoire un tas tellement grand qu'il ne peut pas être chargé sur une boîte avec deux fois plus de ram. Est-il possible de faire fonctionner tout cela, ou éventuellement d'amortissement de l'analyse?
- Voir aussi stackoverflow.com/questions/7254017/...
Vous devez vous connecter pour publier un commentaire.
Je voudrais prendre un coup d'oeil à la eclipse de la mémoire de l'analyseur. Cet outil est génial, et j'ai regardé plusieurs Concert des tas w/cet outil. La bonne chose à propos de l'outil est qu'il crée des index sur la décharge de sorte qu'il n'est pas tout en mémoire à la fois.
Utiliser l'équivalent de
jhat -J-d64 -J-mx16g myheap.hprof
comme une commande à lancer jhat, c'est à dire, cela va démarrer jhat en mode 64 bits avec une taille maximale du tas de 16 gigaoctets.Si la JVM sur votre plate-forme 64 bits par défaut en mode de fonctionnement, puis le
-J-d64
option devrait être inutile.J'ai eu à charge un 11 GO hprof fichier et je ne pouvais pas avec eclipse mémoire de l'analyseur. Ce que j'ai fait a été d'écrire un programme pour réduire la taille de la hprof fichier par hasard la suppression de l'information de l'instance. Une fois que j'ai eu de la taille de la hprof du fichier de 1 go, j'ai pu l'ouvrir avec l'éclipse de la mémoire de l'analyseur et obtenir un indice sur ce qui a provoqué la fuite de mémoire.
Ce que les drapeaux sont en vous passant de jhat? Assurez-vous que vous êtes en mode 64 bits et de la configuration de la taille de segment de mémoire assez grande.