Spark SQL diffusion de jointure de hachage

Je suis en train de réaliser une émission de jointure de hachage sur dataframes à l'aide de SparkSQL, comme indiqué ici: https://docs.cloud.databricks.com/docs/latest/databricks_guide/06%20Spark%20SQL%20%26%20DataFrames/05%20BroadcastHashJoin%20-%20scala.html

Dans cet exemple, la (petite) DataFrame est conservé par saveAsTable et puis, il y a une jointure via spark SQL (via sqlContext.sql("..."))

Le problème que j'ai c'est que j'ai besoin d'utiliser la sparkSQL API pour construire mes SQL (je suis de gauche se joindre à ~50 tables avec une liste d'ID, et ne veux pas écrire du SQL à la main).

How do I tell spark to use the broadcast hash join via the API?  The issue is that if I load the ID list (from the table persisted via `saveAsTable`) into a `DataFrame` to use in the join, it isn't clear to me if Spark can apply the broadcast hash join.
InformationsquelleAutor user1759848 | 2016-05-27