彻底掌握WordPress robots.txt的作用及写法



WordPress robots.txt是什么?有什么用?

robots.txt文件是一个文本文件,存放在网站根目录下,使用任何一个常见的文本编辑器,比如Windows系统自带的Notepad,就可以创建和编辑它。robots.txt是一个协议,是搜索引擎中访问网站的时候要查看的第一个文件。robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。

当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。

WordPress的robots位置

没有在WordPress网站根节目上传过robots.txt,当搜寻引擎和用户拜访某个文件时,WordPress程序会主动生成一个robots.txt给搜寻引擎和用户;若是我们上传编写的robots.txt到网站根节目,用户和搜寻引擎蛛蛛拜访的就是我们上传的文件,WordPress就不会再产生那个文件了。只有服务器找不到robots的时候WordPress才会生成这个文件。

WordPress robots.txt怎么写?

禁止所有搜索引擎访问网站的任何部分

User-agent: *

Disallow: /

允许所有的robot访问 (或者也可以建一个空文件 “/robots.txt” file)

User-agent: *

Allow: /

禁止某个搜索引擎的访问

User-agent: BadBot

Disallow: /

允许某个搜索引擎的访问

User-agent: Baiduspider

allow:/

WordPress168的robots.txt

User-agent: *

Disallow: /wp-admin

Disallow: /wp-includes

Disallow: /wp-content

Disallow: /pho

Disallow: /feed

Disallow: /*/feed


Disallow: /*/*/feed

Disallow: /*/*/*/feed

Disallow: /trackback

Disallow: /*/trackback

Disallow: /*/*/trackback

Disallow: /*/*/*/trackback

Disallow: /comments

Disallow: /*.php$

Disallow: /*.jpg$

Disallow: /*.gif$

Disallow: /*.png$

Disallow: /*.css$

Disallow: /*.js$

Disallow: /*?*

Sitemap: http://www.wordpress168.com/sitemap_baidu.xml

WordPress robots.txt写法注意事项

关于robots.txt一般站长需要注意以下几点:

robots.txt文档以User-agent: 开头,标识语句对应的搜索引擎机器人,后面跟上Disallow: 和Allow:表示起作用的链接。

如果你的站点对所有搜索引擎公开,则不用做这个文件或者robots.txt为空就行。

必须命名为:robots.txt,都是小写,robot后面加”s”。

robots.txt必须放置在一个站点的根目录下。如:通过http://www.wordpress168.com/robots.txt 可以成功访问到,则说明本站的放置正确。

观察这个页面并修改为自己的:http://www.wordpress168.com/robots.txt

有几个禁止,就得有几个Disallow函数,并分行描述。