Comment effectuer des jointures de base de deux tables RDD dans Spark en utilisant Python?

Comment voulez-vous, la base se joint à Étincelle à l'aide de python? Dans R, vous pourriez utiliser merg() pour ce faire. Quelle est la syntaxe à l'aide de python sur la spark pour:

  1. Inner Join
  2. Jointure Externe Gauche
  3. Jointure Croisée

Avec deux tables (RDD) avec une seule colonne dans chaque qui a une clé commune.

RDD(1):(key,U)
RDD(2):(key,V)

Je pense qu'une jointure interne est quelque chose comme ceci:

rdd1.join(rdd2).map(case (key, u, v) => (key, ls ++ rs));

Est ce que le droit? J'ai cherché sur internet et ne pouvez pas trouver un bon exemple de jointures. Merci à l'avance.

source d'informationauteur invoketheshell