Scala Spark / Shark:如何访问Hortonworks中现有的Hive表?

时间:2014-04-25 20:18:04

标签: scala hadoop hive apache-spark shark-sql

我正在尝试找到关于这个主题的方法的一些文档/描述,请帮忙。 我从Hortonworks安装了Hadoop 2.2.0,并安装了一些我需要查询的现有Hive表。 Hive SQL在单个节点和集群上工作极其缓慢且不合理地慢。我希望Shark能更快地工作。

从Spark / Shark文档中我无法弄清楚如何使Shark与现有的Hive表一起工作。任何想法如何实现这一目标?谢谢!

1 个答案:

答案 0 :(得分:0)

您需要在特定于鲨鱼的配置单元目录中配置Metastore。我回答here的类似问题提供了详细信息。

总之,您需要将hive-default.xml复制到hive-site.xml。然后确保设置了Metastore属性。

以下是hive-site.xml中的基本信息

<property>
  <name>javax.jdo.option.ConnectionURL</name>
  <value>jdbc:mysql://myhost/metastore</value>
  <description>the URL of the MySQL database</description>
</property>

<property>
  <name>javax.jdo.option.ConnectionDriverName</name>
  <value>com.mysql.jdbc.Driver</value>
</property>

<property>
  <name>javax.jdo.option.ConnectionUserName</name>
  <value>hive</value>
</property>

<property>
  <name>javax.jdo.option.ConnectionPassword</name>
  <value>mypassword</value>
</property>

您可以在此处获取更多详细信息:configuring hive metastore