Hadoop mettre de la performance - fichier de grande taille (20 go)

Je suis en utilisant hdfs -mettre à la charge d'un grand de 20 go de fichiers dans hdfs. Actuellement, le processus s'exécute @ 4mins. Je suis en train d'améliorer le temps d'écriture de chargement de données dans hdfs. J'ai essayé en utilisant différentes tailles de bloc pour améliorer la vitesse d'écriture, mais a obtenu la ci-dessous les résultats:

512M blocksize = 4mins;
256M blocksize = 4mins;
128M blocksize = 4mins;
64M blocksize = 4mins;

Personne ne sait ce que le goulot d'étranglement pourrait être et d'autres options que je pourrais explorer pour améliorer les performances de l'-mis cmd?

Il est donc actuellement de 80 MO/s. Enquêter sur le disque et réseau I/O. votre disque/réseau afin de mieux? Quelle est votre configuration exacte? Une seule machine ou d'un cluster?

OriginalL'auteur Irvo | 2013-10-24