网页监控脚本返回误报

时间:2013-03-12 21:14:33

标签: bash if-statement webpage crontab monitor

我正在尝试自动化以前耗费全职工作的流程:监控一系列网站以获取新帖子。这似乎是一个相对简单的脚本问题,所以我解决了它,编写了一个bash脚本,并将其设置为在crontab中每分钟运行一次。它工作得很好,但是在页面改变之后,它会在一个小时左右的时间内返回误报,我不能为我的生活找出原因。它会在一段时间后自行解决,但在我了解正在发生的事情之前,我不想部署脚本。这是我的代码:

#!/bin/bash

SITENAME=example

wget http://web.site.url/apache/folder/$(date +%Y)/$(date +%m)-$(date +%B) -O $SITENAME.backend.new --no-cache 
touch $SITENAME.backend.old
diff $SITENAME.backend.new $SITENAME.backend.old > $SITENAME.backend.diff

if [ -s $SITENAME.backend.diff ]
then  sendemail -xu myaddress@mydomain.com -xp password -f myaddress@mydomain.com -t myaddress@mydomain.com -s smtpout.secureserver.net -u $SITENAME -m backend \
&& cp $SITENAME.backend.new $SITENAME.backend.old \
&& echo true

fi

1 个答案:

答案 0 :(得分:0)

如果差异之间的唯一区别是绝对绝对链接,请考虑使用--convert-links wget开关,就像男人说的那样:

  -k
  --convert-links
     

下载完成后,转换文档中的链接,使其适合本地查看。这不仅会影响可见的超链接,还会影响链接到外部内容的文档的任何部分,例如嵌入的图像,样式表的链接,非HTML内容的超链接等。

这会将链接转换为绝对链接。

相关问题