写入hdfs检索错误

时间:2017-06-23 14:39:27

标签: hadoop apache-spark

我正在使用spark,当我尝试将流写入本地磁盘时 - 工作得很好:

logs.foreachRDD((rdd,time)=>rdd.saveAsTextFile("c://tmp/rotman" +  time.milliseconds.toString))

然而,尝试写入hdfs检索错误。 当我使用hdfs将文件直接创建到"hdfs dfs -put test1 /tmp"时,它工作正常,因此没有数据节点问题。

 logs.foreachRDD((rdd,time)=>rdd.saveAsTextFile("hdfs://server1:8020/user/kafka/count" +  time.milliseconds.toString))
  

17/06/23 16:42:39 WARN DFSClient:DataStreamer异常       org.apache.hadoop.ipc.RemoteException(java.io.IOException):File

     

/用户/卡夫卡/ count1498225335000 / _temporary / 0 / _temporary / attempt_201706231642_0022_m_000000_22 /部分-00000   只能复制到0个节点而不是minReplication(= 1)。   有1个datanode正在运行,其中1个节点被排除在外   操作

我错过了什么吗?

谢谢!

0 个答案:

没有答案