Hadoop - 示例jar中包含的示例无法在伪分布式模式下完成

时间:2013-11-20 13:41:41

标签: hadoop mapreduce

有一些map map的问题会在伪分布式模式下运行。我在linux上运行1.2.1版。我有: 1.创建$ JAVA_HOME& $ HADOOP_HOME并将相对bin目录添加到路径中; 2.格式化dfs; 3.执行start-dfs.sh和start-mapred.sh。

执行jps似乎显示应该运行的所有内容(我认为)。

[paul@lt001 bin]$ jps
8724 TaskTracker
8487 SecondaryNameNode
8841 Jps
8353 DataNode
7239 NameNode
8597 JobTracker

然后我尝试运行具有类似结果的wordcount和pi示例,例如:

[paul@lt001 bin]$ hadoop jar hadoop/hadoop-examples-1.2.1.jar pi 4 1000
Warning: $HADOOP_HOME is deprecated.

Number of Maps  = 4
Samples per Map = 1000
Wrote input for Map #0
Wrote input for Map #1
Wrote input for Map #2
Wrote input for Map #3
Starting Job
13/11/18 10:31:38 INFO mapred.FileInputFormat: Total input paths to process : 4
13/11/18 10:31:39 INFO mapred.JobClient: Running job: job_201311181028_0001
13/11/18 10:31:40 INFO mapred.JobClient:  map 0% reduce 0%
13/11/18 10:31:47 INFO mapred.JobClient:  map 50% reduce 0%
13/11/18 10:31:52 INFO mapred.JobClient:  map 100% reduce 0%

在每个实例中,输出到达地图100%减少0%阶段然后停止。无论我等多久,工作都没有进一步发展。我已经检查了日志,我怀疑它是指示问题是hadoop-paul-tasktracker-lt001.log,它有以下输出:

2013-11-18 10:31:55,969 INFO org.apache.hadoop.mapred.TaskTracker: attempt_201311181028_0001_r_000000_0 0.0% reduce > copy > 
2013-11-18 10:34:59,148 INFO org.apache.hadoop.mapred.TaskTracker: attempt_201311181028_0001_r_000000_0 0.0% reduce > copy > 
2013-11-18 10:35:05,196 INFO org.apache.hadoop.mapred.TaskTracker: attempt_201311181028_0001_r_000000_0 0.0% reduce > copy > 
2013-11-18 10:35:11,253 INFO org.apache.hadoop.mapred.TaskTracker: attempt_201311181028_0001_r_000000_0 0.0% reduce > copy > 

..........

2013-11-18 11:10:03,259 INFO org.apache.hadoop.mapred.TaskTracker: attempt_201311181028_0001_r_000000_0 0.0% reduce > copy > 
2013-11-18 11:10:06,290 INFO org.apache.hadoop.mapred.TaskTracker: attempt_201311181028_0001_r_000000_0 0.0% reduce > copy > 
2013-11-18 11:10:12,320 INFO org.apache.hadoop.mapred.TaskTracker: attempt_201311181028_0001_r_000000_0 0.0% reduce > copy > 
2013-11-18 11:10:18,343 INFO org.apache.hadoop.mapred.TaskTracker: attempt_201311181028_0001_r_000000_0 0.0% reduce > copy > 
2013-11-18 11:10:21,369 INFO org.apache.hadoop.mapred.TaskTracker: attempt_201311181028_0001_r_000000_0 0.0% reduce > copy > 
2013-11-18 11:10:27,395 INFO org.apache.hadoop.mapred.TaskTracker: attempt_201311181028_0001_r_000000_0 0.0% reduce > copy > 
2013-11-18 11:10:33,426 INFO org.apache.hadoop.mapred.TaskTracker: attempt_201311181028_0001_r_000000_0 0.0% reduce > copy > 
2013-11-18 11:10:36,463 INFO org.apache.hadoop.mapred.TaskTracker: attempt_201311181028_0001_r_000000_0 0.0% reduce > copy >

这似乎与此处的问题相同:

Running Hadoop examples halt in Pseudo-Distributed mode

已检查JobTracker网页上的状态,此运行显示4个已完成的地图任务和1个正在运行(40分钟后完成0%)减少任务。

似乎它停留在减少>复制>但为什么?任何人都可以帮助下一步看看吗?

更新

我想我还有更多信息。如果我查看正在运行的reduce任务

(http://localhost:50030/taskdetails.jsp?tipid=task_201311201256_0001_r_000000)

我看到它被分配到机器/default-rack/hit-nxdomain.opendns.com

如果我尝试点击“最后4KB任务日志”链接,它会将我发送给

http://hit-nxdomain.opendns.com:50060/tasklog?attemptid=attempt_201311201256_0001_r_000000_0&start=-4097

将此网址修改为

http://localhost:50060/tasklog?attemptid=attempt_201311201256_0001_r_000000_0&start=-4097

然后显示包含以下许多示例的日志:

2013-11-20 14:59:54,726 INFO org.apache.hadoop.mapred.ReduceTask: Penalized(slow) Hosts: 
2013-11-20 14:59:54,726 INFO org.apache.hadoop.mapred.ReduceTask: hit-nxdomain.opendns.com Will be considered after: 814 seconds.
2013-11-20 15:00:54,729 INFO org.apache.hadoop.mapred.ReduceTask: attempt_201311201256_0001_r_000000_0 Need another 4 map output(s) where 0 is already in progress
2013-11-20 15:00:54,729 INFO org.apache.hadoop.mapred.ReduceTask: attempt_201311201256_0001_r_000000_0 Scheduled 0 outputs (1 slow hosts and0 dup hosts)
2013-11-20 15:00:54,730 INFO org.apache.hadoop.mapred.ReduceTask: Penalized(slow) Hosts: 
2013-11-20 15:00:54,730 INFO org.apache.hadoop.mapred.ReduceTask: hit-nxdomain.opendns.com Will be considered after: 754 seconds.

所以似乎hadoop认为该任务正在hit-nxdomain.opendns.com主机上运行。

主机(localhost)通过DHCP选择它的DNS设置,并将路由器设置为DNS服务器。路由器依次使用opendns.com来解析外部地址。

我是否正确地认为这是一个DNS问题?

知道hadoop是如何结束这个主机名的吗?

知道怎么解决吗?

1 个答案:

答案 0 :(得分:1)

这确实是一个DNS问题(反向查找有问题)。决议如下:

检查任务日志中的"停滞"任务1}})。这显示了DNS的问题。

我发现堆栈溢出post建议使用

hadoop-dns-checker

这表明虽然localhost的查找/反向查找很好,但主机名的相同功能却无效。解决这个问题解决了这个问题。

实际问题是主机通过DHCP(通过路由器)获取了它的IP,这是与(dnsmasq)dns服务器分开的。因此,它没有在DNS服务器上注册主机名。因此,dns查询正在由dns服务器传递到我们的dns提供者的上游和一个" dummy"返回的IP地址然后解析为opendns" not found"主机名。 MapReduce使用此主机名作为reduce任务的主机名。启用dnsmasq dhcp并解除路由器上的问题解决了问题 - 主机现在从dnsmasq获取其IP地址并将其主机名注册到DNS服务器。 DNS查找和反向查找现在适用于localhost和主机/主机名。