Comment spécifier AWS ID de Clé d'Accès et la Clé d'Accès Secrète dans le cadre d'un amazon s3n URL
Je suis de passage d'entrée et de sortie des dossiers en tant que paramètres à mapreduce word count programme de la page web.
L'obtention d'erreur ci-dessous:
D'État HTTP 500 - traitement de la Requête a échoué; nested exception est
java.lang.IllegalArgumentException: AWS ID de Clé d'Accès et de Secret
La Clé d'accès doit être spécifié en tant que nom d'utilisateur ou mot de passe
(respectivement) d'un s3n URL, ou par la définition de la fs.s3n.awsAccessKeyId
ou fs.s3n.awsSecretAccessKey propriétés (respectivement).
Vous devez vous connecter pour publier un commentaire.
La documentation a le format: http://wiki.apache.org/hadoop/AmazonS3
java.lang.IllegalArgumentException: Bucket name must not be formatted as an IP Address
, comme si l'ID et le SECRET faisaient partie du seau nom. Dme-4.6.0 jettejava.lang.IllegalArgumentException: Bucket name should be between 3 and 63 characters long
. Des idées?Je vous suggère d'utiliser ceci:
Il fonctionne aussi comme une solution de contournement pour l'apparition des barres obliques dans la clé.
Les paramètres avec l'id et la clé d'accès doit être fourni exactement dans cet ordre: après disctcp et avant origine
De passage dans l'AWS informations d'Identification dans le cadre de l'Amazonie s3n url n'est normalement pas recommandé, sage de la sécurité. Surtout si le code est poussé à un référentiel de la tenue de service (comme github). Idéalement, l'ensemble de vos informations d'identification dans le conf/core-site.xml comme:
ou réinstaller awscli sur votre machine.
<configuration>
de données? Mon pom.xml doen semble pas aimer ça. Je suis une Étincelle de travail sur une VM CentOS, et l'installation et la configuration AWS CLI n'a pas aidé.conf/core-site.xml
conf/core-site.xml
?Pour pyspark débutant:
Préparer
Téléchargement pot de https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-aws
mettez-étincelle pots dossier
Alors vous pouvez
1. Hadoop fichier de config
core-site.xml
2. pyspark config
Exemple
de créer le fichier
core-site.xml
et le mettre dans le chemin de classe.Dans le fichier spécifier
Hadoop par défaut spécifie deux ressources, chargés dans l'ordre depuis le classpath:
core-default.xml
: Lecture seule par défaut pour hadoopcore-site.xml
: Site de la configuration spécifique pour une hadoopinstallation