新建的网站,这个robots是什么意思?

新建的网站,这个robots是什么意思?

当一个搜索蜘蛛访问网站时,首先访问根目录WWW下是否存在robots.txt,若存在,搜索机器人就会按照该文件中的内容来确定访问的范围。

01-认识robots.txt

(1)robots.txt是搜索引擎访问网站时查看的第一个文件,决定着蜘蛛能或不能访问。

(2)若存在robots.txt文件,蜘蛛会按照该文件来确定访问的范围;若不存在,所有的搜索蜘蛛将能够访问网站上所有页面。

(3)robots.txt必须放在一个站点的根目录下,且文件名必须全部小写(真实的服务器就使用ftp上传)。

(4)建议就算允许所抓取所有内容,也要建一个空的robots.txt文件。

(5)可将sitemap网站地图放置robots.txt文件(地图写法:http://abc.***/sitemap.html)。

02-robots.txt的写法

(1)允许所有搜索引擎访问网站所有内容

User-agent: *

Disallow:

(2)禁止所有搜索引擎访问网站所有内容

User-agent: *

Disallow: /

(3)只允许百度搜索引擎抓取

User-agent: Baiduspider

Disallow: /

(4)如果我们禁止除百度外的一切搜索引擎索引

User-agent: Baiduspider

Disallow:

robots.txt文件其实就是告诉蜘蛛哪些页面可以抓取,哪些页面不能访问

到此,以上就是小编对于phpcms怎么判断是否是首页的问题就介绍到这了,希望介绍关于phpcms怎么判断是否是首页的1点解答对大家有用。

转载请说明出处内容投诉
CSS教程_站长资源网 » 新建的网站,这个robots是什么意思?

发表评论

欢迎 访客 发表评论

一个令你着迷的主题!

查看演示 官网购买