为apache spark构建问题

时间:2015-05-05 18:33:41

标签: scala apache-spark sbt

当我尝试构建我的apache spark项目时,我一直有sbt依赖问题。我有Apache Spark 1.3.1。

我的.sbt文件是这样的:

name := "Transaction"

version := "1.0"

scalaVersion := "2.10.4"

libraryDependencies += "org.apache.spark" %% "spark-core" % "1.3.1"

resolvers ++= Seq(
"Akka Repository" at "http://repo.akka.io/releases/",
"Spray Repository" at "http://repo.spray.cc/")

我一直收到这个错误:

[error] (*:update) sbt.ResolveException: unresolved dependency: org.apache.spark#spark-core_2.10;1.3.1: not found

我看了一遍,这似乎是一个持久的问题,但没有人真正解决它。

感谢您的帮助!

2 个答案:

答案 0 :(得分:1)

我用过

“org.apache.spark” % “spark-core_2.10” % “1.3.1”

而不是

“org.apache.spark” %% “spark-core” % “1.3.1”

它有效!

编辑: 但是,在专门制作我的scalaVersion 2.10之后,我能够让后一种说法起作用:

scalaVersion := "2.10"

可能是因为它试图寻找一个不存在的特定2.10.4 jar。

答案 1 :(得分:0)

我实际上已经明白了。你只需要在火花版本之后加上<pre></pre>

"provided"