8、Robots.txt书写错误
粗心大意的人还是比较多,Robots.txt 的书写规范很重要,一个标点符号出错都可以导致悲剧的产生。
解决方案:Robots.txt 书写规范 http://www.yixiin.com/ad/
9、网站频繁被挂马
被入侵挂马的网站很快就会被搜索引擎降权,如果处理不够及时,时间一长有可能导致被K 站的危险。搜索引擎现在很注重网站的安全性,试想如果把一个带有木马的网站呈现给用户访问,这是一个优秀的搜索引擎所该具备的吗?对于百度搜索结果,并没有任何的提示,而谷歌就相对比较人性化,会提示该网站可能存在危险。
解决方案:(1)网站的后台路径和数据库路径至少要更改,这是最基本的安全防范。(2)及时找到木马的地址进行清除,并找出是否是网站本身的原因,自己不懂的话最好请教对网站安全维护有经验的人。(3)以毒攻毒,上传一个网页木马,采用搜索的方式找出入侵者的木马。(4)网站如果没问题,那有可能是服务器被入侵,如果你买的是虚拟空间请及时联系空间商;如果你买的是服务器,找出根源之后,加强服务器的安全设置。http://www.yixiin.com/photo/