为什么蜘蛛总是重复抓取相同的页面
创新互联建站导读:蜘蛛抓取是有规律的,也有着自己的规则,如果蜘蛛不断重复的抓取某个页面,那就表示该页面更新的频率较高。当然如果网站权重很高,那么蜘蛛抓取的频率也会高很多,也可能会出现频繁重复抓取相同页面的情况。
成都创新互联一直通过网站建设和网站营销帮助企业获得更多客户资源。 以"深度挖掘,量身打造,注重实效"的一站式服务,以成都网站设计、成都网站制作、移动互联产品、营销型网站服务为核心业务。10年网站制作的经验,使用新网站建设技术,全新开发出的标准网站,不但价格便宜而且实用、灵活,特别适合中小公司网站制作。网站管理系统简单易用,维护方便,您可以完全操作网站资料,是中小公司快速网站建设的选择。
问题:为什么蜘蛛总是重复抓取相同的页面?
回答:蜘蛛抓取是有规律的,也有着自己的规则,如果蜘蛛不断重复的抓取某个页面,那就表示该页面更新的频率较高。当然如果网站权重很高,那么蜘蛛抓取的频率也会高很多,也可能会出现频繁重复抓取相同页面的情况。
创新互联网站营销SEO还是建议大家多去理解下搜索引擎工作原理,理解蜘蛛抓取的规律是什么样的,这有好处!
这里有个比较特殊的情况,创新互联曾经跟某个网站做SEO诊断,也遇到了蜘蛛频繁反复抓取某个页面的情况。经过分析发现,这个页面是程序自动生成的,它不是前端页面,而是数据库类型的文件。网站每次更新内容,这个页面上都会进行相应的更新,所以这个动态页面就形成了网站地图一样的文件,所以蜘蛛抓取就很频繁。
另外对于有参数的动态页面(不是以.html结尾的那种伪静态页面),也可能会出现被蜘蛛反复抓取的情况。
但不管是怎样的情况,我们只需要知道页面更新的频率会极大的影响到蜘蛛抓取,同时也影响到快照更新。下面以快上推网络网站为例做下简单的介绍,请看图:
这是快上推网络网站一周内收录的数据,可以看到有15页面的记录,也就是有近150个页面的百度快照得到了更新。而在这些页面当中,仅仅有几篇文章是新加的,其他的都是之前的老页面。
那么问题来了,为什么有这么多的老页面得到快照更新呢?曾经有朋友问创新互联,问是不是有几个编辑专门做网站更新,事实上并非如此,我们网站上的内容基本都是创新互联自己更新的,每天就是1-3篇文章左右,当然这些都是原创文章。
问题在于,我们在文章页面设置随机调用的内容模板,页面每次被打开都会随机调用10篇文章。不管是普通用户还是蜘蛛爬行,页面都会随机调用内容,并且我们还设置了最新的时间戳。这对于搜索引擎来说,页面随时都在更新,正是这个小的SEO技巧,让百度快照得到了快速更新。
我们再回到问题上来,为什么蜘蛛总是重复抓取相同的页面?前面的这些文字应该能够解释清楚了吧!大家可以去自查下,看看这些被重复抓取的页面有着怎样的特殊情况。
但是要注意,请大家务必搞清楚是否是真正的蜘蛛,而不是某些模拟的蜘蛛。比如说如果网站经常被其他网站采集的话,那么就可能会出现很多的假蜘蛛,因为这些采集软件使用的就是类似搜索引擎蜘蛛的假蜘蛛。
然后要从这个问题中发现可以操作的时候地方,比如说通过某些SEO方法,让蜘蛛更加有针对性的抓取,让页面的快照信息等到更快的更新等等。总之我们要从这些现象中去发现问题、解决问题,甚至得出有利于网站优化的隐藏信息。
当前题目:为什么蜘蛛总是重复抓取相同的页面
文章出自:http://ybzwz.com/article/epgcdd.html