创建键值对

时间:2018-03-20 05:47:57

标签: python arrays apache-spark pyspark pyspark-sql

我有一个数据框df,如下所示:

+---+--------+----+
| Id|    Size| Amt|
+---+--------+----+
| a1|       1|55.0|
| a2|       2|48.0|
| a3|       3|28.0|
+---+--------+----+

此数据框的架构为:

StructType([
      StructField("Id", StringType(), True),
      StructField("Size", IntegerType(), True),
      StructField("Amt", FloatType(), True)
    ])

当我使用df.write.json("my_output_path")时,json文件如下所示:

{"Id":"a1", "Size":1, "Amt":55.0}
{"Id":"a2", "Size":2, "Amt":48.0}
{"Id":"a3", "Size":3, "Amt":28.0}

使用df,我想创建df1,使其有一个新的数组列(Arr),其中包含现有列的键值对。

df1.write.json("my_new_output_path")的输出文件应如下所示:

{"Id":"a1", "Size":1, "Amt":55.0, "Arr":[{"Id":"a1","Size":1,"Amt":55.0 }] }
{"Id":"a2", "Size":2, "Amt":48.0, "Arr":[{"Id":"a2","Size":2,"Amt":48.0 }] }
{"Id":"a3", "Size":3, "Amt":28.0, "Arr":[{"Id":"a3","Size":3,"Amt":28.0 }] }

我尝试了以下但是它给了我不同的输出:

df1 = df.select('Id', 'Size', 'Amt', array('Id','Size','Amt').alias("Arr"))
df1.write.json("my_new_output_path")

当前输出:

{"Id":"a1", "Size":1, "Amt":55.0, "Arr":["a1", 1 ,55.0] }
{"Id":"a2", "Size":2, "Amt":48.0, "Arr":["a2", 2 ,48.0] }
{"Id":"a3", "Size":3, "Amt":28.0, "Arr":["a3", 3 ,28.0] }

如何获得预期的输出?任何解决方案或指示将不胜感激。

1 个答案:

答案 0 :(得分:1)

由于您需要键值对,因此字典更适合,而不是使用array尝试create_map(Scala中的map)。此函数获取一组列,这些列被分组为键值对(key1,value1,key2,value2,...)。

df1 = df.select('Id', 'Size', 'Amt', create_map(lit('Id'), 'Id', lit('Size'), 'Size', lit('Amt'), 'Amt').alias("Arr"))
此处使用

lit创建具有文字字符串值的列。

然后像以前一样保存新的数据帧,生成的json将如下所示:

{"Id":"a1","Size":1,"Amt":55.0,"Arr":{"Id":"a1","Size":"1","Amt":"55.0"}}
{"Id":"a2","Size":2,"Amt":48.0,"Arr":{"Id":"a2","Size":"2","Amt":"48.0"}}
{"Id":"a3","Size":3,"Amt":28.0,"Arr":{"Id":"a3","Size":"3","Amt":"28.0"}}