J'essaye de construire une nouvelle colonne sur le dataframe comme ci-dessous:
l = [(2, 1), (1,1)]
df = spark.createDataFrame(l)
def calc_dif(x,y):
if (x>y) and (x==1):
return x-y
dfNew = df.withColumn("calc", calc_dif(df["_1"], df["_2"]))
dfNew.show()
Mais je reçois:
Traceback (most recent call last):
File "/tmp/zeppelin_pyspark-2807412651452069487.py", line 346, in <module>
Exception: Traceback (most recent call last):
File "/tmp/zeppelin_pyspark-2807412651452069487.py", line 334, in <module>
File "<stdin>", line 38, in <module>
File "<stdin>", line 36, in calc_dif
File "/usr/hdp/current/spark2-client/python/pyspark/sql/column.py", line 426, in __nonzero__
raise ValueError("Cannot convert column into bool: please use '&' for 'and', '|' for 'or', "
ValueError: Cannot convert column into bool: please use '&' for 'and', '|' for 'or', '~' for 'not' when building DataFrame boolean expressions.
Pourquoi ça arrive? Comment puis-je le réparer?
Soit udf
:
from pyspark.sql.functions import udf
@udf("integer")
def calc_dif(x,y):
if (x>y) and (x==1):
return x-y
ou cas où (recommandé)
from pyspark.sql.functions import when
def calc_dif(x,y):
when(( x > y) & (x == 1), x - y)
Le premier calcule sur Python objets, le second sur Spark Columns
Il se plaint parce que vous donnez à votre fonction calc_dif la totalité des objets de la colonne, pas les données réelles des lignes respectives. Vous devez utiliser un udf
pour envelopper votre calc_dif
fonction :
from pyspark.sql.types import IntegerType
from pyspark.sql.functions import udf
l = [(2, 1), (1,1)]
df = spark.createDataFrame(l)
def calc_dif(x,y):
# using the udf the calc_dif is called for every row in the dataframe
# x and y are the values of the two columns
if (x>y) and (x==1):
return x-y
udf_calc = udf(calc_dif, IntegerType())
dfNew = df.withColumn("calc", udf_calc("_1", "_2"))
dfNew.show()
# since x < y calc_dif returns None
+---+---+----+
| _1| _2|calc|
+---+---+----+
| 2| 1|null|
| 1| 1|null|
+---+---+----+
Pour tous ceux qui ont une erreur similaire: j'essayais de passer un rdd quand j'avais besoin d'un objet Pandas et j'ai eu la même erreur. Évidemment, je pouvais simplement le résoudre par un ".toPandas () "