X

免费开源下载

姓名:

手机号码:

短信验证码 :

获取验证码

需求 :

关于robots.txt写法大全

浏览次数:2405次 | 发表时间:2011-07-20
关于robots.txt写法大全,很少有人谈起,其实用好robots是很容易为你网站提升权重的,这里启凡网络公司告诉大家5种对应的写法:

1、用robots保护网站安全
不少低级黑客就是通过搜索默认后台登陆,以达到**网站的目标,为了防止后台被蜘蛛抓取,可以采用以下写法,保护网站安全。
User-agent: * 《*代表所有》
Disallow: /admin/ 《禁止蜘蛛抓取admin目录下所有文件》

2、防止盗链
一旦被搜索引擎“盗链”那家伙你100M宽带也吃不消,如果你做的不是图片网站,又不想被搜索引擎“盗链”你的网站图片,那么可以写
User-agent: *
Disallow: .jpg$

3、用robots屏蔽网站重复页
很多网站一个内容提供多种浏览版本,虽然很方便用户却对蜘蛛造成了困难,因为它分不清那个是主,那个是次
User-agent: *
Disallow: /sitemap/ 《禁止蜘蛛抓取 文本网页》

4、提交网站地图
现在做优化的都知道做网站地图了,可是却没几个会提交的,绝大多数人是干脆在网页上加个链接,其实robots是支持这个功能的
Sitemap: https://www.qifanweb.com/sitemap.xml

5、禁止某二级域名的抓取
一些网站会对VIP会员提供一些特殊服务,却又不想这个服务被搜索引擎检索到
User-agent: *
Disallow: /

以上五招robots写法足以让你对搜索引擎蜘蛛掌控能力提升不少,希望对大家有所帮助。启凡网络公司
关键字:
相关文章
猜你喜欢
换一换
在线咨询 在线咨询
电话咨询

4006-360-985

电话咨询

二维码

免费互联网咨询