Sqoop l'importation en tant que fichier OrC
Est-il une option dans sqoop pour importer des données à partir de SGBDR et l'enregistrer comme ORC format de fichier dans HDFS?
Alternatives essayé: importés au format texte et utilisé une table temp pour lire l'entrée en tant que fichier texte et d'écrire sur hdfs comme orc dans la ruche
OriginalL'auteur Rajashekar Reddy Peta | 2015-04-30
Vous devez vous connecter pour publier un commentaire.
Au moins dans Sqoop 1.4.5 il existe hcatalog intégration de soutien orc format de fichier (parmi d'autres).
Par exemple, vous avez la possibilité
qui peut être défini à
Exemple:
- Je faire quelque chose de similaire (sauf que je ne spécifiez pas de hcatalog-à la maison et je ne spécifiez le mode direct) à importer à partir de l'Oracle de la Ruche. Mon résultant tableau de la ruche est d'accord au début, mais après quelque temps, je ne peut pas l'interroger - je obtenir {"trace":"org.apache.ambari.vue.de la ruche.client.HiveErrorStatusException: H170 Impossible de récupérer les résultats. java.io.IOException: java.io.IOException: Erreur de lecture du fichier: hdfs://host:port/apps/ruche/entrepôt/db/table/partie-m-0000
OriginalL'auteur selle
Sqoop importation prend en charge que sous la barre des formats.
OriginalL'auteur Venkata Karthik
Dans la version actuelle de sqoop disponibles, il n'est pas possible d'importer des données à partir de RDB à HDFS dans ORC format en un seul shoot de commande. C'est quelque chose de problème connu dans sqoop.
Lien de référence pour cette question soulevée: https://issues.apache.org/jira/browse/SQOOP-2192
Je pense que la seule solution pour l'instant, est le même que vous avez mentionné. Je suis aussi tombée sur le similaire de cas d'utilisation, et ont utilisé de la variante de l'approche en deux étapes.
OriginalL'auteur Reena Upadhyay
Actuellement, il n'existe aucune option pour importer les sgbdr tableau de données directement comme ORC fichier à l'aide de sqoop.
Nous pouvons obtenir le même à l'aide de deux étapes.
Exemple:
Étape 1: Importer les données de la table dans un fichier texte.
Étape 2: Utiliser spark-shell sur invite de commande pour obtenir scala REPL shell de commande.
Étape 3: Vérifiez la sortie.
OriginalL'auteur Vinayak Dornala