代码之家  ›  专栏  ›  技术社区  ›  Charlie Martin

查找spark scala包

  •  0
  • Charlie Martin  · 技术社区  · 7 年前

    我相信这比看起来要简单,但我愿意装傻。

    我正在研究一些Scala/Spark示例,偶尔需要添加库依赖项,例如,

    libraryDependencies ++= Seq(
      scalaTest % Test,
      "org.apache.spark" %% "spark-core" % "2.2.0" % "provided",
      "org.apache.spark" %% "spark-mllib" % "2.2.0"
    )
    

    问题是,您如何为这些库找到合适的名称和版本?似乎所有的文本都给出了导入语句;必须有某种注册表之类的东西。但是在哪里?

    1 回复  |  直到 7 年前
        1
  •  2
  •   Indrajit Swain    7 年前

    正确的 version 属于 library mvnrepository .如果您试图访问 从…起 proprietary Distribution repository Distribution .

    Cloudera repository

    MapR repository

    hdp_maven_artifacts

    Spark core library