l'exportation de la Ruche de table au format csv dans hdfs

Je sais qu'il existe un problème connu avec des séparateurs lors de l'enregistrement d'une table au format csv (ou autre fichier texte) dans la Ruche. Alors je me demandais si vous les gars peuvent m'aider à obtenir autour de cela.

J'ai une table existante (Tableau A) et je voudrais l'enregistrer dans le format csv pour hdfs. De lire les autres réponses, je crois que j'aurais d'abord créer une table externe (mais je ne suis pas sûr de savoir comment le tout aurait l'air).

Peut aider quelqu'un?

Personnellement, j'aimerais utiliser insert overwrite directory et ont un \001 fichier délimité. Mais si vous ont un csv, je pense que vous êtes mieux lotis de la tuyauterie de la requête dans un local .csv et ensuite hadoop fs -put-ing dans hdfs, qui est décrit ici stackoverflow.com/questions/18129581/...
Je veux éviter d'enregistrer un fichier volumineux dans le répertoire local si possible. Mon problème est que je puis avoir besoin de charger le fichier dans R et pour ce faire, vous spécifiez normalement un délimiteur, vous ne savez pas comment cela pourrait fonctionner (ou si il fonctionne) avec un personnage invisible.
- Je charger des données à partir de hdfs d'étincelle et de spécifier le délimiteur comme "\001". Je n'ai jamais eu (une raison) pour importer un fichier à partir de HDFS à la R mais je suppose qu'il peut prendre n'importe quel délimiteur, tant qu'il est correctement spécifié.

OriginalL'auteur Laura | 2015-05-13