了解搜索引擎的几个工作原理,是搜索引擎优化的前提。搜索引擎大致上可以分四个步骤进行工作的。 1.爬行和抓取 搜索引擎派出一个能够在网上发现新网页并抓取文件的程序,这个程序通常被称为蜘蛛(spider)或者机器人(robot)。搜索引擎蜘蛛从数据库中已知的网页开始出发,就像正常用户的浏览器一样访问这些网页并抓取文件。 同时搜索引擎蜘蛛会跟踪网页上的链接,访问更多网页,这个过程就叫作爬行(carwl)。当通过链接发现有新的网址时,蜘蛛将把这些新网址记录入数据库等待抓取。跟踪网页链接是搜索引擎蜘蛛发现新网址的最基本方法,所以反向链接成为搜索引擎优化最基本的因素之一。没有反向链接,搜索引擎连页面都发现不了,就更谈不上排名了。搜索引擎蜘蛛抓取的页面文件与用户浏览器得到的完全一样,抓取的文件存入数据库。 2.索引 搜索引擎索引程序把蜘蛛抓取的网页文件分解、分析,并以巨大表格的形式存入数据库,这个过程就是索引(index)。在索引数据库中,网页文字内容,关键字出现的位置、字体、颜色、加粗、斜体等相关信息都有相应记录。搜索引擎索引数据库存储巨量数据,主流搜索引擎通常都存有几十亿级别的网页。 3.搜索词处理 用户在搜索引擎界面输入关键词,单击"搜索"按钮后,搜索引擎程序即对输入的搜索词进行处理,如中...
发布时间:
2015
-
09
-
02
浏览次数:372