当前位置: 过滤机 >> 过滤机发展 >> 搜索引擎机器人工作原理
大多数的站长在说网站收录的时候都会提到这样的一个词——“robot”,那么这到底是什么呢?今天简单的讲一下搜索引擎的工作原理,我们现在国内常用的有百度,,搜狗等,除了这三个比较常用的之外,还有已经退出中国市场的google,以及不常用的bing,雅虎等,这些搜索引擎的一个主要的部件是一种叫做“机器人(robot)或蜘蛛(spider)”的软件,下面简单的说一下。
这个蜘蛛或者机器人,其实就是搜索引擎用来提取我们网站信息的一个软件,我们可以将它理解为一个ip,它将我们的信息进行收集然后传回搜索引擎进行分析,关于它的工作原理有很多的比喻,其中,蚂蚁这一比喻我觉得是比较恰当的,我们可以吧搜索引擎的机器人理解成探路的蚂蚁,它是去寻找食物,就机器人而言,食物就是指的我们网站上的html,因为我们网站的文本有很多,所以蚂蚁会沿着简单没有障碍的路径进行前进,也就是我们常说的遍历方法进行查看文本,然后将所得到的信息带回蚁穴(也就是搜索引擎数据库)整个网上有无数的机器人来进行探索和收集,当然如果路径不存在或者无法访问那么机器人就会去另外的地方。
那么怎样去开动这个引擎呢?答案很简单就是我们常说的搜索,当我们在进行搜索的时候,搜索引擎会根据我们搜索的地域,以及页面的质量进行一个综合的排名,这也就是为什么同样的词同样的站在不同地区的排名不同的原因。当然搜索引擎在显示的时候还会考虑很多的问题,就不在这里说了,但是我们作为站长要知道,我们的网站或者页面想要进入排名,那么我们必须向搜索引擎提供html文本,让网站满足搜索引擎的抓取是我们每个站长应该做的事情,下篇会给大家重点的讲下搜索引擎的排名机制,以及搜索结果不同的原因。
最后提醒大家:SEO不是高科技,十余年来,SEO工作的基础还是下面的两个基本元素:
1、确保搜索引擎能够访问和读取网站上的内容
2、网站内包含目标受众的关键词
随着算法的不断更新,seo的工作也来越难做,但是这两个基本点是没有变过的。