客服热线:4008-010-388
|
电话:0769-22889555
2015/9/28 8:55:58
优化基础知识:搜索引擎的工作原理是什么?
浏览量:
    我们想要更好的理解SEO,做好SEO的工作,学习和理解搜索引擎的基本架构和原理,是非常有必要的。我们做SEO的效果体验是提高关键词排名,提高转化率,但这一切的前提是懂得搜索引擎原理,那么今天我们一起来研究下搜索引擎。

    搜索引擎工作过程大体分成四步。

    一、搜索引擎派出蜘蛛到互联网的海洋里,通过跟踪链接爬行抓取互联网里的海量信息。
    二、收集数据存入到自己的数据库,并分析网页的内容。一旦遇到权重很低的网站上有大量抄袭、复制的内容,很可能就不再爬行了。
    三、进行预处理,也就是中文分词,去除停止词,消噪(比如版权声明文字、导航条、广告等)。
    四、后按照倒叙分类,进行排名,这样在搜索引擎里输入关键词,就可以返回相应的页面。

    通用的搜索引擎一般包含了蜘蛛(Spider)、爬虫(Crawler)、索引(Indexer)、数据库、结果引擎、Web服务器这六个功能模块。不同的搜索引擎实现,某些地方可能有一定的区别,比如蜘蛛+爬出+索引的组合功能就是通过一个单一的程序来实现的,它一边下载页面,一边分析出结果,并利用已有的链接来发现新的资源。但这些功能都是所有搜索引擎所固有的,所体现的SEO原则都是类似的。下面我们来分别对这些功能模块进行阐述。

 
    1.蜘蛛(Spider)。是一个用来下载页面的模块,类似浏览器的功能。他们之间的区别在于,浏览器展现给用户的是各种形式的信息,而对于蜘蛛来说,并没有一些可视化的组件,它是直接跟基本的html源代码打交道。大家都知道,一个标准的WEB浏览器都是带有html源文件查看功能的。

    2.爬虫(Crawler)。该模块是专门用来发现每个页面的所有链接。它的任务就是通过评估找到的链接,或者已定义的地址来决定蜘蛛去哪里。爬虫跟踪这些已找到的链接,并尝试去发现对于搜索引擎来说不知道的一些文档。

    3.索引(Indexer)。此功能模块负责解析每个页面,然后分析各个页面的元素。比如,文本内容,头部内容,自定义过的特色部分,特殊的html标签等。

    4.数据库。搜索引擎下载和分析的一些数据,都要进行存储。

    5.结果引擎。结果引擎是用来进行页面的排名工作。它决定着哪些页面是匹配用户的搜索请求,并且按照有效合理的次序来显示这些结果。这是根据搜索引擎的排名算法来决定的。页面的排名是有价值的,基于用户兴趣驱动的。所以对于SEOer来说这个是感兴趣的,我们的目标就是如何有效提高所关心的网站的页面排名。

 
    6.Web服务器。这包含了这样的一个基本的web页面,有一个用于用户输入感兴趣的关键词的文本框,并且当用户提交搜索动作是,将结果合理的展示给用户。

    通过上面的讲解,我们已经知道了搜索引擎的基本架构和原理。SEO需要跟搜索引擎打交道,而搜索引擎原理是一套程序,所以我们SEO需要了解搜索引擎的原理,并且从原理中摸索搜索引擎的脾性,投其所好,那么就会取得好的排名,达到我们SEO的目的。所以做SEO,就必须懂得搜索引擎的原理。

 
关键词: 编辑:佚名
  • 【喜讯】海德集团四网合一项目成功签约动点网络
  • 【喜讯】动点信息科技连续五年荣获“广东省守合同重信
  • 【签约】广东中天万城实业投资有限公司三网合一网站建
  • 【签约】动点签约东风日产文体中心(东莞篮球中心)三网
  • 东莞阳光网家居频道网站改版项目与动点达成合作共识

关注动点

  • 电话:0769-22889555
  • 热线:4008-010-388
  • 地址:东莞市南城区体育路2号鸿禧中心B座10楼1011-1013室
  • 官方微信平台