如何才能提高蜘蛛的爬行频率或者说次数呢?为什么别人的网站利于蜘蛛爬行抓取而自己网站不行呢?今天拓野网络就简述一下什么样的网站利于搜索引擎蜘蛛爬行抓取!怎么样做的站点才是有利网站优化的站点的呢?
百度站长平台lee发布了一篇名为“建立符合搜索抓取习惯的网站”的文章,本人就结合这篇文章(文章地址:(http://zhanzhang.baidu.com/wiki/213)说一下个人的理解。
①网站结构要层次分明。尽可能短的距离到达最终内容页或者产品页!常用结构:树形结构。扁平式结构更好,直接从首页就可以到达各个内容页(适合于内容少的)。
②url要具有唯一性。比如说 maolvge.cn与www.maolvge.cn与www.maolvge.cn/index.asp 是三个一样的页面,但是路径不同,所以我们要确定一个主域名。也就是说我们程序要保证这篇文章就一个路径,而不是好几个不同的路径指向同一篇文章。
③路径中的参数尽量少。正常的企业站 你会发现含有2个参数的收录明显不如含有一个参数的。
④建议有404页面、robots文件,这样可以避免蜘蛛爬行一些没必要收录的路径,从而减少了对网站有效内容的爬行频率。
⑤百度应该能分辨一些拼音,所以说有效的拼音目录也有利于百度对内容的一个识别。
⑥入口多了,爬行次数也应该会多。这应该就是外链的其中一个作用,增加蜘蛛进入网站的入口。
⑦网站地图这个是促使蜘蛛遍历网站内容的一个好方法。对于大型网站可以加一个tag标签页。
以上的七条,是我看了“建立符合搜索抓取习惯的网站”的文章以后自己的一个简单理解。希望对您有所帮助。 |