使用robots.txt阻止一个域

时间:2012-05-27 12:49:28

标签: blogger robots.txt

如果Blogger在mydomain.com和mydomain.blogspot.com上都为某个网站提供服务,而这两个网站是相同的,直到拥有相同的robots.txt文件,是否有某种方法来配置robots.txt文件,以便它只阻止网站的mydomain.blogspot.com版本的索引?有没有其他方法可以达到同样的结果?

2 个答案:

答案 0 :(得分:1)

您无法使用robots.txt执行此操作,robots.txt只能包含文件夹/子文件夹的说明,而不包含域/子域的说明。如果可能,您可能需要为mydomain.com和mydomain.example.com创建单独的robots.txt文件。

另一种解决方案是将永久301重定向从一个域重定向到另一个域。 Blogger不可能吗?

答案 1 :(得分:0)

最好的办法是确保将mydomain.blogspot.com重定向到您的自定义域mydomain.com。重定向将需要是永久重定向(301),并且可以通过Blogger上托管的博客实现。 这可以帮助您完成:

http://support.google.com/blogger/bin/static.py?hl=en&ts=1233381&page=ts.cs

这是另一个,但有Blogger的前一个外观。 http://www.blogbloke.com/redirect-you-blogger-custom-domain-to/

我建议您使用第一个链接并按照一步一步的程序进行操作!