微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

robots.txt协议文件的使用详解

robots.txt是搜索引擎收录网站的一个全球化的标准协议文件,我们可以通过robots.txt对搜索引擎的蜘蛛进行约束,允许它访问那些目录,不允许它访问那些目录文件等等。

robots.txt协议文件的作用

Robots协议用来告知搜索引擎哪些页面能被抓取,哪些页面不能被抓取;可以屏蔽一些网站中比较大的文件,如:图片,音乐,视频等,节省服务器带宽;可以屏蔽站点的一些死链接。方便搜索引擎抓取网站内容;设置网站地图连接,方便引导蜘蛛爬取页面

robots.txt必须存在吗?

如果你想搜索引擎收录你网站全部内容,你可以不写这个文件。如你网站不存在robots.txt,搜索引起会认你允许索引网站全部内容

如果你网站有相应的文件或者目录不想被搜索引擎索引,那么就建议创建robots.txt文件,并进行相关约束,具体robots.txt的使用方法请看下面介绍。

robots.txt文件的基本语法格式

User-agent: *

disallow:

User-agent: * 这里的*代表的所有的搜索引擎种类,*是一个通配

disallow: /目录名/  禁止访问某个目录

disallow: /cgi-bin/*.htm 禁止访问/cgi-bin/目录下的所有以".htm"为后缀的URL(包含子目录)。

disallow: /*?* 禁止访问网站中所有包含问号 (?) 的网址

disallow: /.jpg$ 禁止抓取网页所有的.jpg格式图片

disallow:/ab/adc.html 禁止爬取ab文件夹下面的adc.html文件

robots.txt文件的使用范例介绍

例1. 禁止所有搜索引擎访问网站的任何部分User-agent: *disallow: /例2. 允许所有的robot访问 (或者也可以建一个文件 “/robots.txt” file)User-agent: *Allow:/例3. 禁止某个搜索引擎的访问User-agent: BadBotdisallow: /例4. 允许某个搜索引擎的访问User-agent: Baiduspiderallow:/例5.禁止搜索引擎访问3个目录在这个例子中,该网站有三个目录对搜索引擎的访问做了限制,即搜索引擎不会访问这三个目录。需要注意的是对每一个目录必须分开声明,而不要写成 “disallow: /cgi-bin/ /tmp/”。User-agent:后的*具有特殊的含义,代表“any robot”,所以在该文件中不能有“disallow: /tmp/*” or “disallow:*.gif”这样的记录出现。User-agent: *disallow: /cgi-bin/disallow: /tmp/disallow: /~joe/

robots.txt百度官方语法大全

青岛星网robots.txt使用分析

青岛星网robots地址请点击:http://www.qdxw.net/robots.txt  

User-agent: *

disallow:/public/down.asp

disallow:/search.asp

青岛星网禁止所有搜索引起访问 /public/目录下的down.asp文件禁止所有搜索引起访问跟目录下的search.asp文件

robots.txt的注意事项

robots.txt文件名必须是全小写

有多项设置的时候,必须分开写,一行一个设置

最好下载一份语法大全,对照着写,不然很容易出错,可能造成严峻的问题

最后如果你网站设置了robots.txt,可以登录百度站长工具,Robots文件检查,会自动检查你网站Robots文件,并给与正确错误提示哦。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐