利用过ECSHOP的朋侪都市晓得ECSHOP有严峻的重复收录过多的标题,很多朋侪的网站实际产物加文章数目仅仅1000来个,查询链接居然有3,4千,谷歌以致会有上万。 重复链接由于Title一样,以是经常会被搜刮引擎处罚导致收录差,敷衍这个标题,搜刮引擎优化er们是必须要管理的,以下发表我小我私人的管理履历,接待点评。http://cn.yixiin.com/news/list-444.html
阐发会有哪些重复链接产生
1.就我利用的情况,起首是产物页和文章页会有很多的页面以 ?from=rss 竣事
如 /goods-1.html?from=rss
这个的管理要领有二,一是通过删除rss信息订阅成果,二是Robots设置
我小我私人选择的是第二种
以是我在Robots里加了一条克制搜刮引擎索引的语句:
Disallow: /*rss*
这句的意思是只要根目次下的链接带 \rss\就不索引,除非你的网站会有带页面地点里恰好出现rss这连续三个子母,这个语句都可以管理这个标题。
2.分类页里的动态链接
分类页里充斥了大量的动态链接
包罗属性筛选的链接
排序的链接
体现方法的链接
接下来我们逐一击破
起首是属性筛选的链接
如/category-1-min80-max90-attr0.html
这个是筛选内里的代价的筛选
包罗其他属性的链接,我们发明规律就是都市出现 \min\ \max\ \attr\三个词,分别是最小,最大,属性值
和上面的,我们在Robots加了一跳克制抓取包罗这三个词的语句:
Disallow: /*min*
Disallow: /*max*
Disallow: /*attr*
然后,排序的链接和体现方法的链接我们点击后同样会出现类似一长串,此中仍旧包罗 \min\ \max\ \attr\三个词
因而上面Robots的设置已经可以管理
如许就完了吗?没有,固然我们设置了Robots的抓取,但为了让蜘蛛爬行更方面直接,我们必要做别的一个事变,就是限定爬行
找到模板文件里对应的属性筛选和产物列表的模板文件(我本身的是cat_filter.lbi和goods_list.lbi)
找到属性筛选、排序、体现方法的链接代码,在其里增长一句 rel=\nofollow\,意思就是限定爬行
robots的作用在于克制抓取,而nofollow则在于克制爬行,双管齐下很好的引导了蜘蛛和搜刮引擎
3.别的的一些重复动态链接
我小我私人发明的别的重复链接还包罗品牌商品里的体现方法http://cn.yixiin.com/news/
如/brand-1-c0.html?display=text等
我在Robots同样加了三句
Disallow: /*min*
Disallow: /*max*
Disallow: /*attr*
就管理了差别体现方法尚有差别链接的重复收录标题
以上小我私人所提到的并未包罗全部的动态链接,但给各人做了一个不错的参考,由于万变不离其宗,朋侪们可以依据我提到的要领和思绪渐渐的把本身的Robots写完备,同时得当的利用nofollow在模板里限定蜘蛛的爬行
注意的是敷衍已经收录了大量的重复链接,您举行以上提到的修改,搜刮引擎并不能快速做出回声,看待新的页面会限定收录重复页面,但敷衍已经收录的重复链接,搜刮引擎必要花了一段时间取消收录而重新收录主页面,小我私人的履历是至少必要2个月。