Pourquoi le FILS de java heap space erreur de mémoire?

Je veux essayer sur la configuration de la mémoire dans le FIL, donc je vais essayer de configurer certains paramètres sur yarn-site.xml et mapred-site.xml. Par la façon dont j'utilise hadoop 2.6.0. Mais, j'ai une erreur quand je fais un travail de mapreduce. Il dit comme ça :

15/03/12 10:57:23 INFO mapreduce.Job: Task Id :
attempt_1426132548565_0001_m_000002_0, Status : FAILED
Error: Java heap space
Container killed by the ApplicationMaster.
Container killed on request. Exit code is 143
Container exited with a non-zero exit code 143

Je pense que j'ai configuré, il est droit, je donne la carte.java.opte et réduire.java.choisit la petite taille = 64 MO. J'ai essayer de configurer certains paramètres, comme le changement de la carte.java.opte et réduire.java.opte sur mapred-site.xml et j'obtiens toujours cette erreur. Je pense que je ne comprends pas vraiment comment le FIL de la mémoire des œuvres. PAR la manière, pour cela, j'ai essayer sur un seul nœud de l'ordinateur.

64MO est très petite. Essayez de 1GO comme un point de départ.
Sur votre esprit, ce qui provoque cette erreur? J'ai mis 64 MO parce que ma mémoire de l'ordinateur est très petite. 64 MO est pour java processus de droit, si elle est plus petite que la laine.app.mapreduce.am.de commande choisit le ou les fils.app.mapreduce.am.de la ressource.mo. Merci de me donner une explication...Merci beaucoup

OriginalL'auteur Kenny Basuki | 2015-03-12