Comment faire pour copier le fichier de HDFS pour le système de fichiers local
Comment faire pour copier le fichier de HDFS pour le système de fichiers local . Il n'y a pas d'emplacement physique d'un fichier dans le fichier , pas même répertoire . comment puis-je déplacé à mon local pour plus de validations.je suis tenté par winscp .
Vous devez vous connecter pour publier un commentaire.
bin/hadoop fs -get /hdfs/source/path /localfs/destination/path
bin/hadoop fs -copyToLocal /hdfs/source/path /localfs/destination/path
namenode_machine:50070
), recherchez le fichier que vous avez l'intention de copier, faites défiler la page et cliquez sur télécharger le fichier.Dans Hadoop 2.0,
où,
hdfs_input_file_path
peut-être obtenu à partir dehttp://<<name_node_ip>>:50070/explorer.html
output_path
local est le chemin d'accès du dossier où le fichier doit être copié.vous pouvez également utiliser
get
en place decopyToLocal
.Afin de copier des fichiers à partir de HDFS pour le système de fichiers local, la commande suivante peut être exécuté:
hadoop dfs -copyToLocal <input> <output>
<input>
: le HDFS chemin d'accès au répertoire (e.g /mydata) que vous souhaitez copier<output>
: le chemin d'accès au répertoire de destination (par exemple ~/Documents)hadoop fs -ls
?vous pouvez accomplir dans ces deux façons.
Ex:
Mes fichiers sont situés dans /sourcedata/mydata.txt
Je veux copier le fichier dans le système de fichiers Local dans cette voie /utilisateur/ravi/mydata
Cela a fonctionné pour moi sur ma VM instance de Ubuntu.
hdfs dfs -copyToLocal [hadoop répertoire] [répertoire local]
Si votre source "fichier" est divisé entre plusieurs fichiers (peut-être que le résultat de map-reduce) qui vivent dans la même arborescence de répertoire, vous pouvez le copier dans un fichier local avec: