Réglage mapred.enfant.java.opte en script Hive résultats dans M. boulot 'tué' tout de suite

J'ai eu un peu de travaux à défaut en raison de dépassement de mémoire et GC surcharge de dépassement des limites d'erreurs. Pour contrer l'ancienne, j'ai essayé de réglage SET mapred.child.java.opts="-Xmx3G"; au début du script hive**.

En fait tout le temps-je ajouter cette option dans le script, le MR emplois qui soient programmées(pour la première de plusieurs requêtes dans le script) sont "tués" droit de suite.

Des idées sur la façon de remédier à cela? Existe-il d'autres paramètres qui doivent être "bricolé" en collaboration avec le max de la mémoire(par exemple. io.sort.mb)? Toute aide serait plus apprécié.

FWIW, je suis en utilisant hive-0.7.0 avec hadoop-0.20.2. Le paramètre par défaut de max taille de segment de mémoire dans notre cluster est à 1200M d'altitude.

TIA.

** - D'autres solutions de rechange qui ont été essayé(avec effet comique, mais pas de changement perceptible dans les résultats):

  • SET mapred.child.java.opts="-Xmx3G";
  • SET mapred.child.java.opts="-server -Xmx3072M";
  • SET mapred.map.child.java.opts ="-server -Xmx3072M";

    SET mapred.reduce.child.java.opts ="-server -Xmx3072M";

  • SET mapred.child.java.opts="-Xmx2G";

Mise à jour 1: Il est possible que ce n'est pas nécessairement quelque chose à voir avec le réglage de la taille du segment. Bricoler avec des mapred.enfant.java.opte en aucune manière, est à l'origine du même résultat. Par exemple le définir ainsi, SET mapred.child.java.opts="-XX:+UseConcMarkSweepGC"; est d'avoir le même résultat de M. emplois se faire tuer tout de suite. Ou encore la mise explicitement dans le script pour qu'est-ce que le " cluster par défaut sont les causes de cette.

Mise à jour 2: Ajout d'un pastebin d'un grep de JobTracker journaux ici.

OriginalL'auteur decimus phostle | 2014-04-04