Comment puis-je concaténer deux fichiers dans hadoop en un à l'aide d'Hadoop FS shell?

Je suis en train de travailler avec Hadoop 0.20.2 et voudrais concaténer deux fichiers en une seule avec le chat de commande shell, si possible (source: http://hadoop.apache.org/common/docs/r0.19.2/hdfs_shell.html)

Voici la commande que je vous soumets (les noms ont été changés):

**/path/path/path/hadoop-0.20.2> bin/hadoop fs -cat /user/username/folder/csv1.csv /user/username/folder/csv2.csv > /user/username/folder/outputdirectory/**

Il retourne bash: /utilisateurs/nom d'utilisateur/dossier/outputdirectory/: Aucun fichier ou répertoire de

J'ai aussi essayé de créer ce répertoire puis de l'exécuter à nouveau-j'ai toujours eu la "aucun fichier ou répertoire' erreur.

J'ai aussi essayé d'utiliser la commande cp pour copier dans un nouveau dossier et getmerge de les combiner entre eux, mais n'ont pas de chance avec les getmerge.

La raison pour le faire dans hadoop est que les fichiers sont énormes et il faudrait beaucoup de temps à télécharger, de fusion, et de le re-télécharger à l'extérieur de hadoop.

OriginalL'auteur user1397044 | 2012-05-15