J'utilise Spark 1.3 et souhaite rejoindre plusieurs colonnes en utilisant python interface (SparkSQL)
Les travaux suivants:
Je les enregistre d'abord en tant que tables temporaires.
numeric.registerTempTable("numeric")
Ref.registerTempTable("Ref")
test = numeric.join(Ref, numeric.ID == Ref.ID, joinType='inner')
Je voudrais maintenant les rejoindre en fonction de plusieurs colonnes.
J'obtiens SyntaxError
: syntaxe invalide avec ceci:
test = numeric.join(Ref,
numeric.ID == Ref.ID AND numeric.TYPE == Ref.TYPE AND
numeric.STATUS == Ref.STATUS , joinType='inner')
Tu devrais utiliser &
/|
_ opérateurs et faites attention à priorité des opérateurs (==
a une priorité inférieure à celle du bit AND
et OR
):
df1 = sqlContext.createDataFrame(
[(1, "a", 2.0), (2, "b", 3.0), (3, "c", 3.0)],
("x1", "x2", "x3"))
df2 = sqlContext.createDataFrame(
[(1, "f", -1.0), (2, "b", 0.0)], ("x1", "x2", "x3"))
df = df1.join(df2, (df1.x1 == df2.x1) & (df1.x2 == df2.x2))
df.show()
## +---+---+---+---+---+---+
## | x1| x2| x3| x1| x2| x3|
## +---+---+---+---+---+---+
## | 2| b|3.0| 2| b|0.0|
## +---+---+---+---+---+---+
Une approche alternative serait:
df1 = sqlContext.createDataFrame(
[(1, "a", 2.0), (2, "b", 3.0), (3, "c", 3.0)],
("x1", "x2", "x3"))
df2 = sqlContext.createDataFrame(
[(1, "f", -1.0), (2, "b", 0.0)], ("x1", "x2", "x4"))
df = df1.join(df2, ['x1','x2'])
df.show()
qui produit:
+---+---+---+---+
| x1| x2| x3| x4|
+---+---+---+---+
| 2| b|3.0|0.0|
+---+---+---+---+
L’avantage principal étant que les colonnes sur lesquelles les tables sont jointes sont non dupliquées dans la sortie, ce qui réduit le risque d’erreurs telles que org.Apache.spark.sql.AnalysisException: Reference 'x1' is ambiguous, could be: x1#50L, x1#57L.
Chaque fois que les colonnes des deux tables ont noms différents, (dans l'exemple ci-dessus, df2
a les colonnes y1
, y2
et y4
), vous pouvez utiliser la syntaxe suivante:
df = df1.join(df2.withColumnRenamed('y1','x1').withColumnRenamed('y2','x2'), ['x1','x2'])