是否有一种比站点地图更有效的方法来添加/强制重新抓取/删除您在谷歌中的网站索引条目?

时间:2011-01-23 10:20:51

标签: seo indexing sitemap xml-sitemap

这就是问题所在。是否有一种方法比标准sitemap.xml更有效[添加/强制重新抓取/删除],即在谷歌管理您网站的索引条目?

我记得几年前我正在阅读一篇不知名博主的文章,该文章说,当他在自己的网站上撰写新闻时,新闻的网址会立即显示在谷歌的搜索结果中。我认为他提到了一些特别的东西。我不记得究竟是什么......一些由谷歌自己提供的自动重爬行系统?但是,我不确定。所以我问,你认为我自己在愚弄,除了sitemap.xml之外没有其他办法管理索引内容吗?我只需要确定一下。

谢谢。

2 个答案:

答案 0 :(得分:1)

我认为您不会发现您正在寻找的神奇“银弹”答案,但这里有一些可能有用的其他信息和提示:

  • 爬行深度和爬行速度直接受到PageRank(它影响的少数几件事之一)的影响。因此,增加网站的主页和内部网页的反向链接数量和质量将对您有所帮助。
  • QDF - 这个Google算法因素“查询值得新鲜”确实产生了真正的影响,并且是Google Caffeine基础架构项目背后的核心原因之一,可以更快地找到新鲜内容。这是像SE这样的博客和网站表现良好的主要原因之一 - 因为内容是“新鲜的”并且与查询相匹配。
  • XML站点地图帮助进行索引,但它们不会带来更好的排名。使用它们来帮助搜索机器人找到您体系结构深处的内容。
  • Ping,尤其是通过博客,监控ping-o-matic等站点更改的服务,可以真正帮助推送新内容的通知 - 这也可以确保搜索引擎立即意识到它。
  • 抓取预算 - 请注意浪费搜索引擎在您网站的某些部分上的时间,这些时间不会改变或者不值得在索引中占有一席之地 - 使用robots.txt和robots元标记可以将搜索机器人放到您网站的不同部分(请谨慎使用,以免删除高价值内容)。

其中许多主题都在网上讨论,但还有其他内在的东西,如导航结构,内部链接,网站架构等,也可以像任何“技巧”或“设备”那样做出贡献。

答案 1 :(得分:0)

从好的网站获取许多链接到您的网站将使Google“蜘蛛”更快地到达您的网站。

来自Twitter等社交网站的链接也可以帮助抓取工具访问您的网站(虽然Twitter链接没有通过“链接汁” - 蜘蛛仍然通过它们。)

最后一件事,定期更新您的内容,将内容视为“Google Spider Food”。如果蜘蛛会来到你的网站,并且找不到新的食物,他们将很快不会再回来,如果他们每次来,都有新的食物,他们会来很多。文章目录例如,每天多次索引。