如何使网页无法搜索?

时间:2016-09-04 06:55:14

标签: seo privacy

有没有办法让网页成为任何搜索引擎无法搜索的简历?

目的是仅与拥有该链接的人共享该页面。

2 个答案:

答案 0 :(得分:5)

还有更多要点,我更愿意全部应用它们:

正如 Daniel 在他的回答中所说:

1)在您的网站位置http://example.com/robots.txt

User-agent: *
Disallow: /
  

这意味着:对于所有机器人/抓取工具,不允许索引任何URI   这个位置。

2)如果 robots.txt意外跳过或损坏,您可以在所有页面上的HTML源代码中执行以下操作:< / p>

<!DOCTYPE html>
<html>  
    ...
    <head>
        <meta name="robots" content="noindex, nofollow" />
    </head>
    ...
</html>
  

这意味着:如果访问此页面,请不要将此页面编入索引,即使不抓取其链接 - 换句话说 - 停止并离开此处。

3)如果您的网站不专用于公开,请在.htaccess中创建密码(例如,如果使用Apache)。因此,当用户尝试进入该网站时,他需要用户名和密码。

4)如果您的网站已经以某种方式已编入索引,并且您希望将其停用以供公众搜索,则可以从Google移除网址&# 39;使用Google网站站长工具索引:

enter image description here

答案 1 :(得分:2)

在您网站的根目录中创建一个名为robots.txt的文件,其中包含以下内容:

User-agent: *
Disallow: /

这将阻止所有主要搜索引擎对网站编制索引。