PySpark:在相同的 ID 下分成两组。

时间:2021-08-12 04:20:22

标签: python apache-spark pyspark

我正在研究如何生成相同 ID 下的两个组。示例表格如下:

输入数据如下所示:

期望输出如下图所示:

我尝试使用 dense_rank()函数,但无法按时间顺序排列。希望能得到帮助!

0 个答案:

没有答案