Le chargement d'un grand hprof en jhat

J'ai un 6.5 GO Hprof fichier qui a été sous-évaluées par une JVM 64 bits à l'aide de la -XX:-HeapDumpOnOutOfMemoryError option. Je l'ai assis sur un 16 GO machine 64 bits, et essaie de le faire en jhat, mais il continue d'être à court de mémoire. J'ai essayé en passant jvm arguments pour un minimum de paramètres, mais il rejette toute minimum, et semble manquer de mémoire avant de frapper le maximum.

Il semble un peu idiot qu'une jvm en cours d'exécution hors de vidages de mémoire un tas tellement grand qu'il ne peut pas être chargé sur une boîte avec deux fois plus de ram. Est-il possible de faire fonctionner tout cela, ou éventuellement d'amortissement de l'analyse?

InformationsquelleAutor liam | 2009-12-02