在Nutch中爬行时出现UnsatisfiedLinkError

时间:2017-06-06 06:31:02

标签: java apache hadoop nutch

尝试设置Nutch并在第一次抓取时遇到此问题。

使用了命令

$ bin/crawl -i -D solr.server.url=http://localhost:8080/solr/ urls/ TestCrawl /2

获得的错误

enter image description here

设置信息

  • Nutch 1.3
  • Java JRE v1.8u131
  • Windows Server 2012 R2(实际上也在Windows 10上尝试过。获得了相同的错误)

已尝试解决方案

  • 添加' winutils.exe'和' hadoop.dll'进入' bin' Apache Nutch的文件夹
  • 设置环境变量' JAVA_HOME'' NUTCH_JAVA_HOME'指向Apache Nutch文件夹
  • 设置环境变量' HADOOP_HOME'指向Apache Nutch文件夹(因为' bin'将是存储hadoop dll的文件夹
  • 为系统'路径'增加价值,即' {Apache Nutch文件夹} \ bin'

欣赏是否有人能告诉我我能做些什么来修复。感谢。

0 个答案:

没有答案
相关问题