7-15天上首页 不达标不收费

| 注册

seo优化关键词快速排名搜索引擎优化 > SEO算法 > 【岳阳seo】使用robots.txt屏蔽蜘蛛对网站的抓取

【岳阳seo】使用robots.txt屏蔽蜘蛛对网站的抓取

星乐SEO SEO算法 2021年02月10日

搜索引擎机器人不断抓取网站,以便将它们添加到搜索引擎索引中。然而,有时开发者希望在搜索引擎结果中隐藏他们的网站或特定页面。在这种情况下,robots.txt可以用来阻止搜索引擎蜘蛛访问网站。在本教程中,您将学习如何创建robots.txt文件,并防止搜索引擎蜘蛛访问或爬行网站。

第一步& # 8211;访问服务器并创建新文件

首先创建一个robots.txt文件,可以使用FTP客户端或者宝塔面板上传到网站的根目录下。

第二步& # 8211;编辑robots.txt

每个搜索引擎都有自己的爬行工具(用户代理)。在robots.txt中,可以指定爬行工具用户代理。网上有上百种爬行动物,但最常见的有:

Googlebot

雅虎!大声地吃

bingbot

AhrefsBot

蜘蛛

Ezooms

MJ12bot

YandexBot

例如,如果您想阻止百度抓取工具访问常规网站,可以使用以下规则编辑robots.txt:

用户代理:Baiduspider

不允许:/

如果您想阻止所有搜索引擎搜索工具,您可以使用*作为通配符:

用户代理:*

不允许:/

如果要防止搜索引擎爬网程序仅访问特定的文件或文件夹,请使用类似的语法,但需要指定文件或文件夹的名称。假设我们想阻止搜索引擎抓取工具只访问文章和private.php文件。在这种情况下,robots.txt文件的内容应该如下:

用户代理:*

禁止:/文章/

不允许:/private.php

编辑好robots.txt文件后,保存修改,上传到网站根目录。可以在浏览器搜索栏输入域名/robots.txt查看。

广告位
标签: robots.txt   SEO基础