无法在Cloudera Quickstart VM 5.3.0中使用Cloudera Manager添加新服务

时间:2015-03-30 14:14:31

标签: apache-spark cloudera cloudera-manager cloudera-quickstart-vm

我正在使用Cloudera Quickstart VM 5.3.0(在Windows 7上的Virtual Box 4.3中运行),我想学习Spark(在YARN上)。

我创办了Cloudera Manager。在侧边栏中我可以看到所有服务,有Spark但是在独立模式下。所以我点击"添加新服务",选择" Spark"。然后我必须为这个服务选择一组依赖项,我没有选择我必须选择HDFS / YARN / zookeeper。 下一步我必须选择历史服务器和网关,我在本地模式下运行VM,所以我只能选择localhost。

我点击"继续"并且发生此错误(+ 69个跟踪):

  

发生服务器错误。发送以下信息   Cloudera的。

     

路径:http://localhost:7180/cmf/clusters/1/add-service/reviewConfig

     

版本:Cloudera Express 5.3.0(由jenkins建造的#155   20141216-1458 git:e9aae1d1d1ce2982d812b22bd1c29ff7af355226)

     

org.springframework.web.bind.MissingServletRequestParameterException:必需   长参数' serviceId'不在场   AnnotationMethodHandlerAdapter.java第738行   org.springframework.web.servlet.mvc.annotation.AnnotationMethodHandlerAdapter $ ServletHandlerMethodInvoker   raiseMissingParameterException()

我不知道是否需要互联网连接,但我确切地说我无法通过虚拟机连接到互联网。 (编辑:即使有互联网连接我也得到同样的错误)

我不知道如何添加此服务,我尝试使用或不使用网关,许多网络选项,但它从未工作过。我检查了已知的问题;没什么...

有人知道如何解决这个错误或我如何解决这个问题?谢谢你的帮助。

1 个答案:

答案 0 :(得分:2)

朱利安,

在回答您的问题之前,我想在Hadoop 5(CDH5)的Cloudera Distribution中做一些关于Spark的一般性说明:

  1. Spark以三种不同的格式运行:(1)本地,(2)Spark自己的独立管理器,以及(3)其他集群资源管理器,如Hadoop YARN,Apache Mesos和Amazon EC2。
  2. Spark与(1)和(2)的CHD 5开箱即用。您可以发起本地 使用spark-shell命令在Scala中进行交互式spark会话 或pyspark for Python而不传递任何参数。我找到了交互式Scala和Python 口译员帮助学习使用Resilient Distributed进行编程 数据集(RDD)。
  3. 我能够在CDH 5.3.x发行版上重新创建错误。对于您发现的错误,我并不意味着要归功于I posted to the Cloudera developer community for feedback.

    为了在QuickStart伪分布式环境中使用Spark,请使用以下命令查看是否所有Spark守护程序都在运行(您可以在Cloudera Manager(CM)UI中执行此操作):

    [cloudera@quickstart simplesparkapp]$ sudo service --status-all | grep -i spark
    Spark history-server is not running                        [FAILED]
    Spark master is not running                                [FAILED]
    Spark worker is not running                                [FAILED]
    

    我手动停止了所有独立的Spark服务,因此我们可以尝试在Yarn中提交Spark作业。

    为了在快速启动集群上的Yarn容器中运行Spark,我们必须执行以下操作:

    1. HADOOP_CONF_DIR设置为包含yarn-site.xml配置文件的目录的根目录。这通常是CHD5中的/etc/hadoop/conf。您可以使用命令export HADOOP_CONF_DIR="/etc/hadoop/conf"设置此变量。
    2. 使用spark-submit提交作业,并指明您使用的是Hadoop YARN。

        

      spark-submit --class CLASS_PATH --master yarn JAR_DIR ARGS

    3.   
    4. 检查Hue中的作业状态,并与Spark History服务器进行比较。 Hue应该显示放置在通用Yarn容器中的作业,Spark History不应该有提交作业的记录。
    5.      使用的参考文献:

相关问题