网站SEO优化之搜索引擎的工作原理

什么是搜索引擎

搜索引擎是一个帮助用户搜索它们须要内容的计算机程序。换一种说法,搜索引擎把计算机中储存的信息与用户的信息需求(information need)相匹配,并把匹配的结果展示进去。

搞懂了搜索引擎的工作原理以后,可以解决优化当中这些问题,如网站网站蜘蛛有没有来网站,网站为何没有收录,网站为何有收录,没有排行。

搜索引擎为想要抓取互联网站的页面,不或许自动去完成,那么百度、google她们的工程师就撰写了一个程序,他们给这个手动抓取的程序起了一个名子,爬虫(也可以称作“蜘蛛”)。

互联网上的信息储存在无数个服务器上,任何搜索引擎要想回答用户的搜索,首先要把网页存在自己本地的服务器上,这靠的就是网路爬虫。它不停的向各类网站发送恳求,将所得到的网页储存上去。那么它如何晓得往哪发送恳求呢?通常的做法是运用网页之间的链接从一个网页出发,提取出对准其他页面的链接,把他们当作将上次要恳求的对象,不停重复这个过程。有太多细节要被考虑。比如防止循环链接的网页;解析网页文档(通常是html格式,但还有好多其他格式)提取里面的链接;当链接未能打开时对错误进行处理等。

出于安全等诱因考虑,很多网路服务器都有反蓄意爬虫的功能。尽管它们所采取策略各不相同,共a同点是它们目标就是尽量只响应用户的恳求。但搜索引擎爬虫一般不需要怀疑这一点,因为大部分网站都希望提升自己的搜索排名,欢迎搜索引擎爬虫到访。

搜索引擎的工作分为4个方法:

1、 爬行

形象的理解上去象网上正在爬行的蜘蛛搜索引擎优化(seo)知识完全手册,通过特定规律的代码,对网页的链接进行跟踪,如此依次进行,从一个链接爬至另外一个链接,因为是机器执行搜索引擎优化(seo)知识完全手册,也被称作为“机器人”。

© 版权声明
THE END
喜欢就支持以下吧
点赞0
分享
评论 抢沙发

请登录后发表评论