协策网络,专业做网站,优秀上海网站制作公司,提供企业建站、网站设计、网页制作,专业网页设计师和网站制作技术工程师为您量身打造个性企业电子商务网站。

此页面上的内容需要较新版本的 Adobe Flash Player。

获取 Adobe Flash Player

  文章汇总 Article Summary
当前位置:协策网络 >> 文章中心 >> 网站优化 >> 浏览文章
 

如何避免Robots.txt文件常见的几个错误呢

作者:协策网络-客服部    标签:网站设     日期:2012年05月21日    类别:网站优化

 

         对于robots.txt文件的重要性想必很多站长都深有体会。如果我们不重视这些书写的小细节的不仅会失去robotss.txt原有的效果,还会引起不必要的反效果。以下上海网站设计为大家列举几个常见的错误希望大家一定要高度重视了。

 

        第一:屏蔽的后面没有跟上斜杠“/”


  同样举个例子,比如我们想屏蔽/abcd/这一目录下面的页面,有的人可能会这样写Disallow: /abcd。这样写是否有问题呢?这样写依然有问题,而且问题很大条。这样虽然可以屏蔽掉/abcd/这一目录下面的所有页面。但是这也会传递给搜索引擎这样的信息,那就是屏蔽开头为/abcd的所有页面。效果等同于是Disallow: /abcd’*。这个错误将会给站点照成很大的影响。上海网站建设建议的正确的做法是,在想要屏蔽的目录后面切记需要加上斜杠“/”。

 


  第二:Allow与disallow顺序颠倒


  首先我们来看一段robots.txt语句:


  User-agent: *


  Allow: /


  Disallow: /abcd/


  这段语句初看我们可以得到目的是告诉搜索引擎在abcd目录下面的页面不能抓取,但是其他所有的页面设计中可以。但是这段语句的实际效果如何呢?效果是背道而驰的,为什么呢?我们知道搜索引擎蜘蛛对于robots文件中的规则的执行是从上到下的。这将会造成Disallow语句失效,正确的做法,是要把Disallow: /abcd/置于Allow: /前才能发挥我们想要的效果。


     第三:屏蔽某一个页面时,页面名前没有带上斜杠“/”


  我想这一点很多站长也很容易忽视掉,打个比方,我们想要对搜索引擎屏蔽在根目录下的abcd.html这一页面,有的人在robots上可能会这么写:Disallow: abcd.html,表面上看可能没什么问题,但是笔者想要问一下你先告知搜搜引擎屏蔽的这一页面在什么目录下面?如果我们不带上的话,搜索引擎蜘蛛无法识别是在哪一个页面。正确的写法是:Disallow: /abcd.html,这样才能真正的屏蔽位于根目录下面的abcd.html这一页面。

 

        Robots.txt其实有很多需要注意的地方,我们还是那句老话“细节决定一切”,如果你不注意那些细节,有点语句发挥不了应有的作用进而没有效果。Robots.txt文件时搜索引擎进入我们站点后访问的第一个文件,所以它的好坏直接关系到接下来搜索引擎对网站的访问是否能顺利进行。

 

        本文由上海网站制作协策网络(http://www.580plan.com/)发表,转载请以链接形式注明出处,谢谢!



更多
  您可能感兴趣的文章推荐  
 
上一篇:分享DEDECMS程序的基本优化 下一篇:网站优化之提高pr的高招
协策网络公司拥有专业的网站建设开发团队,超过四年以上的网站建设、网页制作经验,我们可承接企业电子商务网站建设、企业展示型网页设计和功能型网站制作等各类型网站设计制作。
     
首 页  |  基础服务  |  网站建设  |  网站优化  |  成功案例  |  协策博客  |  关于我们  |  联系我们
COPYRIGHT © 上海协策网络科技有限公司 2008-2014 网站地图 SITEMAP 上海做网站公司 沪ICP备08009778号

地址:上海市共和新路425号凯鹏国际大厦13楼G座(近3、4、8号线)

电话:021-51085186 传真:021-56555059 咨询:+(86)18018609689
上海做网站建设网页设计制作公司