如何转换JavaRDD <tuple2 <object,bsonobject =“”>&gt;到Spark Mongo Connector中的DataFrame?

时间:2015-07-15 16:00:36

标签: mongodb apache-spark dataframe apache-spark-sql

我有JavaRDD<Tuple2<Object, BSONObject>>

SparkContext sc = new SparkContext()
Configuration config = new Configuration();
config.set("mongo.input.uri","mongodb://localhost:27017:testDB.testCollection);
JavaRDD<Tuple2<Object, BSONObject>> mongoRDD = sc.newAPIHadoopRDD(config, MongoInputFormat.class, Object.class,
            BSONObject.class).toJavaRDD();

如何将此mongoRDD转换为DataFrame,以便我可以在其上运行SQL查询?

1 个答案:

答案 0 :(得分:0)

导入SQLcontext后,您可以使用toDF,这需要列名列表作为参数。