Pyspark:两个日期之间的差异(Cast TimestampType,Datediff)

时间:2017-06-29 09:24:44

标签: timestamp pyspark datediff

有一个包含事件和特定时间戳的表。我很难计算使用Pyspark 2.0 API传递的天数。当时间戳跟随另一种格式(yyyy-mm-dd)时,我设法做了同样的事情

    +-------------------+------------------------+----------+--------------+
     | first_booking_date|first_booking_date_clean|  today   |customer_since|
    +-------------------+------------------------+----------+--------------+
     |02-06-2011 20:52:04|              02-06-2011|02-06-2011|          null|
     |03-06-2004 18:15:10|              03-06-2004|02-06-2011|          null|

我尝试了以下(没有用): - 使用字符串操作提取日期并使用datediff - 转换为时间戳,然后提取dd:MM:yy( - >结果为null) - 我更喜欢使用pyspark命令而不是使用sql

进行任何其他转换

非常感谢帮助,最好,非常感谢!!!

编辑:这是一个不起作用的例子:

import datetime
today = datetime.date(2011,2,1)
today = "02-06-2011"
first_bookings = first_bookings.withColumn("today",F.lit(today))
first_bookings = first_bookings.withColumn("first_booking_date_clean",F.substring(first_bookings.first_booking_date, 0, 10))
first_bookings = first_bookings.withColumn("customer_since",F.datediff(first_bookings.today,first_bookings.first_booking_date_clean))

1 个答案:

答案 0 :(得分:4)

这个答案基本上是https://stackoverflow.com/a/36985244/4219202的副本 在你的情况下,timeFmt将是" dd-MM-yyyy"列 first_booking_date_clean 今天

从Spark 1.5开始,您可以使用unix_timestamp

from pyspark.sql import functions as F
timeFmt = "yyyy-MM-dd'T'HH:mm:ss.SSS"
timeDiff = (F.unix_timestamp('EndDateTime', format=timeFmt)
            - F.unix_timestamp('StartDateTime', format=timeFmt))
df = df.withColumn("Duration", timeDiff)