Robots.txt禁止

时间:2013-10-18 09:34:11

标签: robots.txt

我正在与一个电子商务系统合作,目前正在抛出数百个潜在的重复页面网址,并试图通过robots.txt找出如何隐藏它们,直到开发人员能够在那里排序...... ......出去。

我设法阻止其中的大多数,但卡在最后一种类型上,所以问题是: 我有4个网址到同一产品页面,结构如下,如何阻止第一个而不是其他产品。

  1. www.example.com/ProductPage
  2. www.example.com/category/ProductPage
  3. www.example.com/category/subcategory/ProductPage
  4. www.example.com/category/subcategory/ProductPage/assessorypage
  5. 到目前为止,我能提出的唯一想法是使用:

    Disallow: /*?id=*/
    
    然而,这会阻止一切......

    编辑:我相信我可能已经找到了一种方法来设置robots.txt文件以禁止所有,然后只允许我想要的特定路径再次下面然后...再次禁止任何特定路径之后。

    任何人都知道这是否会对使用disallow>的SEO产生负面影响允许>禁止。

1 个答案:

答案 0 :(得分:2)

您可以为rel =“canonical”属性设置元标记。这将有助于搜索引擎知道哪个网址是“正确的”,并且搜索结果中每个产品的网址不超过一个。

阅读here了解更多信息