Spark - 将地图转换为RDD

时间:2016-03-16 21:50:00

标签: scala apache-spark scala-collections rdd

我需要将地图转换为RDD,以便将其保存到ES,但现在无法解决。

stream.foreachRDD {
    _.map(_._2).flatMap(l => (students zip l.split("~")).map{
      case (key, value) => key -> value
    })
   .toRDD().saveToEs() // convert map to RDD ???      
}

任何帮助?

1 个答案:

答案 0 :(得分:0)

基本上,我只需要导入elasticsearch包就可以在rdd上调用saveToES方法。

import import org.elasticsearch.spark._

...
stream.foreachRDD {
_.map(_._2).flatMap(l => (students zip l.split("~")).map{
  case (key, value) => key -> value
})
.saveToEs("myindex/mytype") 
}

感谢您的投入!

相关问题