Hadoop HDFS copie avec des caractères génériques?
Je veux copier un certain ensemble de fichiers dans hdfs à un autre endroit dans le même cluster hdfs. Le dfs shell ne semble pas être en mesure de gérer cela:
hadoop dfs -cp /tables/weblog/server=jeckle/webapp.log.1* /tables/tinylog/server=jeckle/
Aucune erreur n'est renvoyée: mais aussi ne pas mettre de fichiers sont copiés.
OriginalL'auteur javadba | 2014-01-05
Vous devez vous connecter pour publier un commentaire.
Vous devez utiliser des guillemets doubles avec votre chemin, qui contient des caractères génériques, comme ceci:
il n'a pas d'importance sur les deux devis. La citation juste dire shell NE développez PAS le générique plutôt que comme seul paramètre à passer à hdfs commande. J'essaie à la fois de devis ça fonctionne.
Oui, vous avez raison. J'ai attribué.
Est-ce décrit dans la documentation?
C'est une variable du shell de connaissances. Pensez "/foo/bar/*" comme un argument, ou la coquille va essayer de développer générique(par ex.: '*', '?').
OriginalL'auteur MoreFreeze
Tout d'abord, HDFS copie avec des caractères génériques est pris en charge. Deuxièmement, l'utilisation de
hadoop dfs
est obsolète, vous feriez mieux d'utiliserhadoop fs
ouhdfs dfs
à la place. Si vous êtes sûr que l'opération n'a pas réussi (bien qu'il semble réussir), vous pouvez vérifier les fichiers journaux de namenode pour voir quel est le problème.parce que j'ai juste essayé la même commande que le vôtre sur mon clusters et il fonctionne pour les 2.1 et 0.23.9. Sérieusement, merci de vérifier vos journaux namenode
OriginalL'auteur zhutoulala
Intéressant. C'est ce que je reçois dans mon local de VM en cours d'exécution Hadoop 0.18.0. Quelle version utilisez-vous? Je peux essayer sur 1.2.1 aussi
Essayé 1.2.1 et de travail. Cependant, j'ai trouvé ce lien s'il vous Plaît vérifier.
OriginalL'auteur Jerry Ragland
Ces deux fonctionné pour moi:
Je pense de meilleur moyen que de ne pas donner double/simple("/') cite.
OriginalL'auteur Santosh Singh