sbt - 仅在发布期间排除某些依赖关系

时间:2015-01-08 08:24:07

标签: scala sbt pom.xml apache-spark

我正在构建一个可以与1.0版,1.1版,1.2版Apache Spark一起使用的实用程序库。

由于它们都是二进制向后兼容的,我想让用户决定使用哪个spark版本(通过手动添加spark-core首选版本作为依赖项和我的库),以及不要在库的POM中施加任何版本限制。否则,它会使依赖性驱逐警告的用户烦恼。

是否可以在不更改任何编译行为的情况下使sbt在已发布的POM中省略库依赖项?

2 个答案:

答案 0 :(得分:5)

是的,provided配置是专门为此设计的:

libraryDependencies += "org" %% "artifact" % "1.0" % "provided"

将在编译期间将所述库放在类路径上,但不会放在POM文件中。

答案 1 :(得分:5)

以下是我使用sjrd帮助编写的sbt设置。

import scala.xml.{Node => XmlNode, NodeSeq => XmlNodeSeq, _}
import scala.xml.transform.{RewriteRule, RuleTransformer}

pomPostProcess := { (node: XmlNode) =>
  new RuleTransformer(new RewriteRule {
    override def transform(node: XmlNode): XmlNodeSeq = node match {
      case e: Elem if e.label == "dependency" && e.child.exists(child => child.label == "scope" && child.text == "provided") =>
        val organization = e.child.filter(_.label == "groupId").flatMap(_.text).mkString
        val artifact = e.child.filter(_.label == "artifactId").flatMap(_.text).mkString
        val version = e.child.filter(_.label == "version").flatMap(_.text).mkString
        Comment(s"provided dependency $organization#$artifact;$version has been omitted")
      case _ => node
    }
  }).transform(node).head
}