J'ai un cadre de données dans pyspark
. Dans ce cadre de données, j'ai une colonne appelée id
qui est unique.
Maintenant, je veux trouver la valeur maximum
de la colonne id
dans le cadre de données.
J'ai essayé comme ci-dessous
df['id'].max()
Mais obtenu en dessous de l'erreur
TypeError: 'Column' object is not callable
Faites-moi savoir comment trouver la valeur maximum
d'une colonne dans le bloc de données
Dans la réponse de @Dadep, le lien donne la réponse correcte
si vous utilisez des pandas .max()
fonctionnera:
>>> df2=pd.DataFrame({'A':[1,5,0], 'B':[3, 5, 6]})
>>> df2['A'].max()
5
Autrement s'il s'agit d'une structure de données spark
:
Meilleure façon d'obtenir la valeur maximale dans une colonne de données Spark
Je viens de Scala, mais je crois que cela est également applicable sur Python.
val max = df.select(max("id")).first()
mais vous devez d'abord importer ce qui suit:
import org.Apache.spark.sql.functions.max