Comment trouver la taille d'un fichier HDFS
Comment trouver la taille d'un fichier HDFS? Quelle commande doit être utilisé pour trouver la taille de n'importe quel fichier dans HDFS.
Vous devez vous connecter pour publier un commentaire.
Comment trouver la taille d'un fichier HDFS? Quelle commande doit être utilisé pour trouver la taille de n'importe quel fichier dans HDFS.
Vous devez vous connecter pour publier un commentaire.
Vous pouvez utiliser
hadoop fs -ls
de commande pour lister les fichiers dans le répertoire en cours ainsi que leurs coordonnées. La 5ème colonne dans la sortie de commande contient la taille du fichier en octets.Pour, par exemple, la commande
hadoop fs -ls input
donne la sortie suivante:La taille de fichier
sou
est 45956 octets.Je trouve aussi moi-même à l'aide de
hadoop fs -dus <path>
beaucoup. Par exemple, si un répertoire sur HDFS nommé "/utilisateur/frylock/entrée" contient 100 fichiers et vous avez besoin de la taille totale de tous ces fichiers, vous pourriez exécuter:et vous obtenez de retour de la taille totale (en octets) de tous les fichiers dans "/utilisateur/frylock/entrée d'annuaire".
Aussi, gardez à l'esprit que HDFS stocke les données de manière redondante de sorte que le stockage physique réel utilisé par un fichier peut être 3x ou plus de ce qui est rapporté par
hadoop fs -ls
ethadoop fs -dus
.hadoop fs -du -s -h /user/frylock/input
pour un beaucoup plus lisible de sortie.J'ai utilisé le dessous de la fonction qui m'a aidé à obtenir la taille du fichier.
Voir la commande ci-dessous avec le script awk pour voir la taille (en GO) de filtre de sortie dans HDFS:
de sortie ---> 2.089 GO
de sortie ---> 1.724 GO
de sortie ---> 0.986 GO
Si vous voulez le faire par le biais de l'API, vous pouvez utiliser 'getFileStatus()' méthode.
C'est la version lisible par l'homme, sinon il va donner de mauvaises unités (légère plus)