需要根据我自己的列自身值更新Hbase中的时间戳,而不是默认时间戳

时间:2017-05-04 17:44:45

标签: scala apache-spark hbase spark-dataframe

默认情况下,Hbase具有每行的时间戳值。我们如何通过spark scala代码更新我自己的HBase中的时间戳值,同时保存(插入)来自spark Dataframe的记录?

例如,

create 'test', 'cf'

put 'test', 'row1', 'cf:a', 'value1'

put 'test', 'row2', 'cf:b', 'value2'

put 'test', 'row3', 'cf:c', 'value3'

scan 'test'

ROW COLUMN+CELL

row1 column=cf:a, timestamp=1288380727188, value=value1

row2 column=cf:b, timestamp=1288380738440, value=value2

row3 column=cf:c, timestamp=1288380747365, value=value3

我们如何根据数据框更新时间戳?

1 个答案:

答案 0 :(得分:0)

您可以添加最后添加Long的时间戳: 把'test','row1','cf:a','value1,111111

如果你想更新时间戳,你只需要再次添加相同的数据(如果你有VERSIONS = 1,但这是另一个问题)

相关问题