登录(Plus) 登录 申请体验
搜索引擎是如何工作的?
发布时间 : 2019-06-12 14:55 浏览量 : 36

  了解搜索引擎的工作原理,有助于更好地优化搜索引擎优化。

  1。获取网络数据

  互联网的信息发展迅速,如何有效地获取和利用这些信息是搜索引擎工作的一个环节。数据采集系统是整个系统的上游。主要负责互联网信息的收集、保存和更新,如蜘蛛在网络中爬行。因此,它通常被称为网络蜘蛛,即网络蜘蛛或机器人。

  常见的搜索引擎抓取程序:Baiduspider(百度spider)、360spider (360 spider)、搜狗Web spider (search dog Web spider)、Googlebot(谷歌robot)。蜘蛛从一些重要的URL抓取它来发现新的URL并抓取页面上的超链接,它会尽可能地捕获更多有价值的网页。

54.

  2。建立索引库

  事实上,搜索引擎蜘蛛捕获了多少页面并不是最重要的。重要的是索引了多少页。

  索引库层次结构:高质量的web页面被分配给重要的索引库,普通的页面被分配到普通的库中,差的web页面被分配到较低的级别作为补充材料。目前,调用高质量索引库可以满足60%的检索需求。

  哪些页面可以进入高质量的索引库:

  1.有时效性和有价值的页面,

  2.高质量的专题页

  3.高价值原创内容页面

  4.重要的个人页面

  3。页面排序

  用户通过关键词进行搜索,搜索引擎从索引库中提取相关页面,根据不同的纬度和相关因素对不同的网页进行综合排序。

  4。显示搜索结果

  以百度为例,百度搜索结果左侧为:auction、phoenix nest、brand area、natural search等。


标签:
cache
Processed in 0.004667 Second.