搜索引擎蜘蛛是通过链接地址来寻找网页的。搜索引擎蜘蛛名称随搜索引擎的不同而不同。那它的原理是由一个起始链接开始抓取网页内容,同时也采集网页上的链接,并将这些链接作为它下一步抓取的链接地址,如此循环,直到达到某个停止条件后才会停止http://www.ffsy56.com/。停止条件的设定通常是以时间或是数量为依据,可以通过链接的层数来限制网络蜘蛛的爬取。同时页面信息的重要性为客观因素决定了蜘蛛对该网站页面的检索。站长工具中的搜索引擎蜘蛛模拟器其实它就是这个原理。基于这蜘蛛工作原理,站长都会不自然的增加页面关键词出现次数,虽然对密度产生量的变化,但对蜘蛛而言并没达到一定的变化。这在搜索引擎优化过程中应该要避免的。http://www.ffsy56.com/news/