站长基础说说之使用Robots解决重复收录之案例分析【微发信息网】
推广 热搜: 广州  SEO  贷款  深圳    医院  用户体验  网站建设  贵金属  机器人 

站长基础说说之使用Robots解决重复收录之案例分析

   日期:2019-01-01 01:04:27     来源:互联网    作者:微发信息网    浏览:1    评论:0    
核心提示:利用过ECSHOP的朋侪都市晓得ECSHOP有严峻的重复收录过多的标题,很多朋侪的网站实际产物加文章数目仅仅1000来个,查询链接居然有
 利用过ECSHOP的朋侪都市晓得ECSHOP有严峻的重复收录过多的标题,很多朋侪的网站实际产物加文章数目仅仅1000来个,查询链接居然有3,4千,谷歌以致会有上万。 重复链接由于Title一样,以是经常会被搜刮引擎处罚导致收录差,敷衍这个标题,搜刮引擎优化er们是必须要管理的,以下发表我小我私人的管理履历,接待点评。http://cn.yixiin.com/news/list-444.html
          阐发会有哪些重复链接产生
          1.就我利用的情况,起首是产物页和文章页会有很多的页面以 ?from=rss 竣事
          如 /goods-1.html?from=rss
          这个的管理要领有二,一是通过删除rss信息订阅成果,二是Robots设置
          我小我私人选择的是第二种
          以是我在Robots里加了一条克制搜刮引擎索引的语句:
          Disallow: /*rss*
          这句的意思是只要根目次下的链接带 \rss\就不索引,除非你的网站会有带页面地点里恰好出现rss这连续三个子母,这个语句都可以管理这个标题。
          2.分类页里的动态链接
          分类页里充斥了大量的动态链接
          包罗属性筛选的链接
          排序的链接
          体现方法的链接
          接下来我们逐一击破
          起首是属性筛选的链接
          如/category-1-min80-max90-attr0.html
          这个是筛选内里的代价的筛选
          包罗其他属性的链接,我们发明规律就是都市出现 \min\ \max\ \attr\三个词,分别是最小,最大,属性值
          和上面的,我们在Robots加了一跳克制抓取包罗这三个词的语句:
                Disallow: /*min*
                Disallow: /*max*
                Disallow: /*attr*
          然后,排序的链接和体现方法的链接我们点击后同样会出现类似一长串,此中仍旧包罗 \min\ \max\ \attr\三个词
          因而上面Robots的设置已经可以管理
          如许就完了吗?没有,固然我们设置了Robots的抓取,但为了让蜘蛛爬行更方面直接,我们必要做别的一个事变,就是限定爬行
          找到模板文件里对应的属性筛选和产物列表的模板文件(我本身的是cat_filter.lbi和goods_list.lbi)
          找到属性筛选、排序、体现方法的链接代码,在其里增长一句 rel=\nofollow\,意思就是限定爬行
          robots的作用在于克制抓取,而nofollow则在于克制爬行,双管齐下很好的引导了蜘蛛和搜刮引擎
          3.别的的一些重复动态链接
          我小我私人发明的别的重复链接还包罗品牌商品里的体现方法http://cn.yixiin.com/news/
          如/brand-1-c0.html?display=text等
          我在Robots同样加了三句
                Disallow: /*min*
                Disallow: /*max*
                Disallow: /*attr*
          就管理了差别体现方法尚有差别链接的重复收录标题
          以上小我私人所提到的并未包罗全部的动态链接,但给各人做了一个不错的参考,由于万变不离其宗,朋侪们可以依据我提到的要领和思绪渐渐的把本身的Robots写完备,同时得当的利用nofollow在模板里限定蜘蛛的爬行
          注意的是敷衍已经收录了大量的重复链接,您举行以上提到的修改,搜刮引擎并不能快速做出回声,看待新的页面会限定收录重复页面,但敷衍已经收录的重复链接,搜刮引擎必要花了一段时间取消收录而重新收录主页面,小我私人的履历是至少必要2个月。
 
免责声明:以上所展示的信息由网友自行发布,内容的真实性、准确性和合法性由发布者负责。微发信息网对此不承担任何保证责任。任何单位或个人如对以上内容有权利主张(包括但不限于侵犯著作权、商业信誉等),请与我们联系并出示相关证据,我们将按国家相关法规即时移除。

本文地址:http://www.wlchinahc.com/news/SEOyouhua/201901/59653.html

打赏
 
更多>同类资讯
0相关评论

推荐图文
推荐资讯
点击排行

网站首页  |  付款方式  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  RSS订阅  |  违规举报  |  粤ICP备11090451号
免责声明:本站所有信息均来自互联网搜集,产品相关信息的真实性准确性均由发布单位及个人负责,请大家仔细辨认!并不代表本站观点,微发信息网对此不承担任何相关法律责任!如有信息侵犯了您的权益,请告知,本站将立刻删除。
友情提示:买产品需谨慎
网站资讯与建议:3123798995@qq.com 客服QQ:3123798995点击这里给我发消息3123798995点击这里给我发消息