• 郑州网站建设_网站制作_网页设计_手机建站-郑州建站

  • 手机网站 专注网站建设 品牌的力量 值得信赖

    服务热线: 15136144056/15638281969

当前位置:首页 > 网站营销 > seo资讯 > 正文

robots.txt文件的定义和用途

发布时间:2015年02月08日 03:33 | 发布者:新速科技 | 浏览次数:1766次
robots.txt文件,是每一个搜索引擎蜘蛛到你的网站之后要寻找和访问的第一个文件,robots.txt是你对搜索引擎制定的一个如何索引你的网站的规则。通过该文件,搜索引擎就可以知道在你的网站中哪些文件是可以被索引的,哪些文件是被拒绝索引的。我们就可以很方
便地控制搜索引擎索引网站内容了。
    在很多网站中,站长们都忽略了使用robots.txt文件。因为很多站长都认为,自己的网站没有什么秘密可言,而且自己也不太会使robots.txt的语法,因此一旦写错了会带来更多的麻烦,’还不如不用。
    其实这样的做法是不对的。如果蜘蛛在某个网站上访问了一个不存在的URL,那么就会记录下一条404信息(网页不存在),而robots.txt作为蜘蛛访问网站的第一个文件,一旦搜索引擎找不到这个文件,也会在它的索引服务器上记录下一条404信息。如果这样的404信息过多,那么搜索引擎蜘蛛就会认为该网站价值较低,从而降低对该网站的“印象分”,这就是我们经常会听到的“降低权重”。
    “权重”是一个影响网站在搜索引擎排名中非常重要的因素,如果网站的权重高,那么搜索引擎蜘蛛也会频繁地访问该网站,而且网站排名也好。如果权重低,那么搜索引擎蜘蛛对于网站的访问次数也相应的要少,同时网站排名较差。而网站的权重是由很多条件所积累.