使用MongoSpark将Mongo集合加载到地图中

时间:2018-09-04 01:43:48

标签: mongodb scala apache-spark

我正在尝试将mongo spark集合加载到scala地图中。以下是我到目前为止所拥有的:

val mongoUri = "mongodb://<username>:<password>@<mongoHost>:<mongoPort>/<dbName>.<collectionName>"

val readConfig = ReadConfig(Map("spark.mongodb.input.uri" -> <mongo-uri>))

val mapFromMongo = MongoSpark.load(sc, readConfig)
  .withPipeline(Seq(Document.parse("{ $match: {\"satisfyingCondition\" :{$eq: true} } }")))
  .map(row => (row.getString(1), row.getString(0)))
  .collectAsMap()

我在调试时遇到问题,想知道这是否是正确的方法。

0 个答案:

没有答案