只言片语观点:东莞网站优化觉得应该先把流量靠谱点的统计出来。。。
大型网站多用Google Analytics,但流量多了,分析的时候时间跨度一拉长,采样率动辄不到0.1%,这数据坑爹吧。。。总体趋势有时都不准,不用提细分筛选了,老是惨不忍睹。
东莞网站优化有时看到流量变了,不是自身问题也不是百度问题,喵的是统计误差。。。 http://www.yixiin.com/ad/
从日志里面,把爬虫和SEO访客剥出来,构建一个简单的平台供分析数据。系统么先保证能看日期趋势,我承认我开发的主要动力就是坑爹的报表系统只能龟速查看当天的,想看一个月变化得导差不多30次数据,估计半小时能搞定,尽管GA半分钟。
另外正则筛选URL神马的也是必须的,个人认为这是GA这样的统计工具,和国内常见统计玩具最大的区别之处。
流量若能准确细分,那么SEO效果就能一定程度衡量,不至于走感觉流。其它的辅助项么可以相对滞后点。
辅助项比如,各类页面的抓取细分、页面加载速度细分、收录比率细分、总体排名细分等等。如果想能较准确把控流量的话,还有许多可做。
国平说的:SEO流量 = 收录 * 排名 * 点击率 实际不具实用性。
对于很多类型的网站而言,相关关键词的检索量季节性差异较明显,往往是影响SEO流量的最大因素。因此最好要监控搜索量,放入上述公式去。
又如收录,收录100个列表页和收录100个内页可以带来的流量是截然不同的,所以上述公式要页面细分后,才可按照页面类型来分别计算。
一下子就码了很多字,但做起来这些有的好做。说起来容易做起来难,实际都要一段段的代码来实现,至今只码了一小部分。。。
数据统计好了有神马用?比如两栏目对比,收录比率高的那个,必有其原因,只要能分析出来(取决于对搜索引擎原理的理解深度等),就能改善差的那个。
只要数据完善了,随便看些数据就有可以改的地方。但数据完善之路比较艰辛。。 http://www.yixiin.com/news/
东莞网站优化曾经为了统计收录比率,shell脚本几台服务器当中跑抓取量、百度站长平台里面人肉抄索引量、最终Excel表格满屏的数字。尽管找到了些颇有价值的问题,但这种纠结的事情还是让人抓狂。。。