什么是SEO?什么是搜索引擎优化?_IT/计算机_专业资料

什么是 SEO?什么是搜索引擎优化?搜索引擎优化(Search Engine Optimization,简称 SEO)是一种运用搜索引擎的搜 寻规则来增加目的网站在有关搜索引擎内的排行的形式。由于不少研究发觉,搜 索引擎的用户常常只会注意搜救结果最前面的几个条目, 所以不少网站都希望透 过各类方式来影响搜索引擎的排序。当中尤以各类借助广告维生的网站为甚。 所谓 「针对搜索引擎作优化的处理」 是指为了要使网站更容易被搜索引擎接受。 , 搜索引擎会将网站彼此间的内容做一些相关性的数据比对, 然后再由浏览器将这 些内容以最迅速且接近最完整的形式,呈现给搜寻者。 搜索引擎优化对于任何一家网站来说,要想在网站推广中取得成功,搜索引擎优 化都是至为关键的一项任务。 同时, 随着搜索引擎不断变换他们的排行算法规则, 每次算法上的改变就会使一些排行挺好的网站在一夜之间名落孙山, 而丧失排行 的直接后果就是丧失了网站固有的可观访问量。 所以每天搜索引擎算法的改变都 会在网站之中造成不小的躁动跟焦躁。可以说,搜索引擎优化是一个愈来愈复杂 的任务。 历史 早期搜索引擎 网站管理员以及网路内容提供商在 90 年代中期开始使用搜索引擎来优化网站。

此时第一代搜索引擎开始对因特网分门别类。一开始,所有网站管理员得做的事 只有递交所属网站至各家搜索引擎。这些引擎跑一些蜘蛛机器人(spider)── 撷取于网页程序中找到连到其他网页的连接──使得存储所找到的数据。 过程中 同时包含了将网页下载并存储到搜索引擎拥有者的服务器中搜索引擎优化之什么是搜索引擎优化(seo), 这时有另外一个软 件称为 Indexer 来描画页面中不同的信息——页面中的文字、文字的位置、文字 的重要性以及页面所包含的任何连接,之后将页面置入清单中等候过些时日后, 再来依循一次。随着在线文件数量日积月累,越来越多网站员意识到基本搜救 (organic search,亦翻为随机搜救[1]) 条目的重要性,所以较普及的搜索引擎 公司开始整理它们的列表, 以显示依据最洽当适宜的网页为优先。搜索引擎与网 站员的战役就此开始,并沿袭迄今。 一开始搜索引擎是被网站管理员原本牵着走的。 早期版本的搜救算法有赖于网站 员提供信息, 如关键词的基本定义卷标 (meta tag)当这些网站员开始滥用标签, 。 造成该网页排行与连接无关时, 搜索引擎开始放弃标签并发展更复杂的排行算法。 由于数繁不及备载,仅列出数个剖析目标如下: 在标题签里的文字,如 引擎 域名,如 统一资源定位符下属的目录与文件名,如 关键词密度 关键词接近度,如 ‘软盘、软盘’ ‘硬盘、硬盘’ 图形链接的 Alt 属性,如

由于某些都还在网站人员的下巴下打滚, 搜索引擎陆陆续续遇到众多滥用与操纵 排名等窘境。 为了要提供较差的结果给使用者,搜索引擎应当调适至使它们的搜 索结果表现出最适当的结果, 而非那些不道德的网路员形成的、只有填满关键词 的无用网页。由此,新种类的搜索引擎应运而生。 当代搜索引擎 Google 由两名在斯坦福大学深造的博士生拉里· (Larry Page) 和谢尔盖· 佩奇 布 尔(Sergey Brin)开始。他们带给了一个给网页评估的新概念,称为「网页级别」 (PageRank) ,是 Google 搜索引擎算法[2]重要的开端。网页级别非常倚重导出链 结(incoming link) ,并运用这些每位导出某网页的链结相当于给该网页价值投一 票的理论构建起逻辑系统。越多导出链结意味着该网页越有“价值” 。而每位导 入链结原本价值直接按照该链结从何而至的网页级别, 以及相反的该页导入链结 (outgoing link) 。 在网页级别帮助下,Google 在服务相关的结果上证明它相当优异。Google 成为 了最普遍跟最成功的搜索引擎。由于网页级别测度了站点外因子,Google 感到 它会比页内因子无法动双脚。

然而网站员们早已开发出赶走 Inktomi 搜索引擎的链结操作工具跟计划。这些方 法证明对 Google 算法一样好使。许多站集中于交换、买卖大量链接。随着网站 员寻找获取链结只单单要影响 Google 送更多流量给该站搜索引擎优化之什么是搜索引擎优化(seo),而不管是否对站点访 客有用否这些行为提高,网页级别对原始算法的信赖度逐渐被破坏了。 此时,是 Google 和其它查寻引擎对广大范围的站外因子仔细检视的时侯。开发 更加聪敏的算法有其他成因。 因特网早已膨胀至拥有非技术的广大种族。他们经 常难以使用先进的提问技术来取得信息; 而且她们得面对比起发展初期更庞大数 据、更复杂的索引。搜索引擎应当开发具有预测性、语义性、语言性跟启发性算 法。 目前,网页级别的缩小版依然被显示在 Google 工具条上,不过网页级别只不过 是 Google 考虑在网页分级时超出 100 个诱因里中的一个。 今天, 大多数搜索引擎对他们的怎样评等的算法保持秘密。搜索引擎虽然使用上百诱因在排列目录;每个诱因原本跟诱因所占比重或许不断的在改变。 大部分当代搜索引擎优化的思路──这些有效、 哪些没效──这种巨大部份在于 观察与依据防守消息来的猜想。

某些优化员得执行控制下的试验以取得不同优化 方法的结果。 尽管如此,以下是搜索引擎发展他们算法时的一些考虑,这份 Google 专利清单 [3]也许可使读者可猜出它们会走哪条路线: 站点的年纪 自该网际注册后过多长 内容的年纪 新内容降低的规律性 链接的年纪,连接站点的名誉跟其相关程度 一般站内诱因 负面站内诱因 (例如,太多关键词组标(meta tag) ,很显然被优化过,会对站 点引起伤害) 内容的独特性 使用于内容的相关术语 (搜索引擎关联至的术语的形式视同怎样关联至网页的 主要内容) Google 网页级别 (只被使用在 Google 的算法) 外在链接、外部链接的链结文字、在某些跟在站点/网页包含的这些链接 引证跟研究来源(表明内容是研究性质) 在搜索引擎数据库里列出的词源与其相关的术语(如 finance/financing) 导入的反向链结,以及该链结的文字 一些导出链结的负面计分 (或许这些来自低价值页、被交换的反向链结等) 逆向链结取得频率:太多很快意味着“不自然”的链结订购活动 围绕在导入链结、 导入的反向链结周围的文字。 例如一个链结倘若被 “Sponsored Links” (赞助商连接)包围,该链结可能会被忽视。

用 “rel=nofollow” 建议搜索引擎忽视该链接 在站点该文件的结构深度 从其他资源搜集的网格表, 譬如监视当搜救结果导引用户至某页后,用户有多频 繁按浏览器的返回钮 从来源象:Google AdWords/AdSense、Google 工具条等程序搜集的网格表 从第三方数据分享合同搜集的网格数据 (譬如检测站点流量的统计程序提供商) 删除导出链结的频率 使用子域、在子网使用关键词跟内容品质等等,以及从这种活动来的负面计分 和主文档语意上的连接文件降低或改动的速度 主机服务商 IP 和该 IP 旗下其它站点的人数/质量 其他链结站会员 (link farm / link affiliation) 与被链结的站 (他们分享 IP 吗? 有 一个共同的邮寄地址在”联络我们 (Contact Us)” 页吗?) 技术细节象运用 301 复位向被移除的网页、 对不存在网页显示 404 服务器康泰时而 非 200 服务器康泰时、适当的运用 robots.txt 主机服务商正常运行时间 是否站点对不同类的用户显示不同的内容(称为「掩饰」 (cloaking) ) 未及时矫治、无效的导入的链结 不安全或违规内容 HTML 代码品质,以及错误出现数 由搜索引擎自它们搜救结果观察至的实际点击通过率评等 由最常存取搜救结果的人自动评等 搜索引擎分类 搜索引擎按其工作方式主要可分为三种,分别是全文搜索引擎(Full Text Search Engine) 、垂直搜索引擎(Vertical Search Engine)和元搜索引擎(Meta Search Engine) 。

全文搜索引擎. 全文搜索引擎是名副其实的搜索引擎, 国外具代表性的有 Google、 Fast/AllTheWeb、 AltaVista、Inktomi、Teoma、WiseNut 等,国内知名的有百度 (Baidu) 。它们都是通过从互联网上提取的各个网站的信息(以网页文字为主) 而构建的数据库中, 检索与用户查询条件匹配的相关记录,然后按一定的排列顺 序将结果返回给用户,因此它们是真正的搜索引擎。 垂直搜索引擎. 垂直搜索引擎是针对某一个行业的专业搜索引擎,是搜索引擎的 细分跟延展, 是对网页库中的某类专门的信息进行一次整合,定向分数组抽取出 需要的数据进行处理后再以某些方式返回给用户。 垂直搜索是相对通用搜索引擎 的信息量大、查询不精确、深度不够等提下来的新的搜索引擎服务方式,通过针 对某一特定领域、 某一特定人群或某一特定需求提供的有一定价值的信息跟相关 服务。例如,著名的百度图片搜索,互联统计网[4]等都是针对某一领域而选用 的垂直搜索引擎。 元搜索引擎. 元搜索引擎在接受用户查询恳求时,同时在其他多个引擎上进行搜 索,并将结果返回给用户。著名的元搜索引擎有 InfoSpace、Dogpile、Vivisimo 等 (元搜索引擎列表) ,中文元搜索引擎中具代表性的有搜星搜索引擎。

在搜索结 果排列方面,有的直接按来源引擎排列搜索结果,如 Dogpile,有的则按自定的 规则将结果再次排列组合,如 Vivisimo。 搜索引擎优化跟搜索引擎之间关系 在第一代搜索引擎发表后, 搜索引擎操作员显得对搜索引擎优化新村感兴趣。在 一些初期搜索引擎, 譬如 INFOSEEK, 要得到第一名不过是把顶级的网页代码抓下、放在您的网站、并递交个 URL 让搜索引擎立刻索引并排行该页这样简略。 由于搜救原本的高价值跟标定性, 搜索引擎跟搜索引擎优化员间自始便存在抗衡 的关系。最近一次于 2005 年举办的 AirWeb 年会,旨在谈论缩小这些敌视关系 差距,和怎样最小化那些很过分侵略性优化引起的毁坏疗效。 某些更具侵略性的优化员形成自动化的站点, 或者使用这些最终会使该网际被搜 索引擎扫地出门的技术。而大多数优化公司则销售常年、低风险的策略服务,而 且大部分使用高风险战略的优化公司,则在它们旗下的会员点使用、产生商业线 索、或者纯内容站点,而非使他们顾客站亲身涉险。 这里提供一个使用侵略性优化技术的优化公司使它们顾客被关停的案例。 华尔街 时报描述了某个使用高风险技术跟涉嫌没有透漏顾客得承当这些风险的公司[5]。

Wired 报告了该公司控告某部落格,因为提到该公司被关停[6]。Google 的克特 斯 (Matt Cutts) 稍后确认 Google 确实整治了 Traffic Power 以其他们的客户群 [7]。 某些搜索引擎对搜索引擎优化产业提供了援助, 而且是经常是优化大会跟研讨会 的赞助商跟来访贵宾。实际上,自从付费收录 (paid inclusion) 降临,一些搜 索引擎目前在网站优化新村的健康有了既得利益。 所有主要搜索引擎都提供信息 /指南以协助站点优化: Google[8] 、Yahoo [9], 和 MSN[10]。Google 提供了 Sitemaps 程序[11]帮助网站员学习假如 Google 有任何问题检索她们的网站时该 如何做,并且提供 Google 流量与您网站关系间无价的丰富数据。雅虎的 SiteExplorer[12],旨在提供一个免费模式提交您的 URL, 该办法能使你决定准备 让雅虎索引多少页、索引多深。雅虎的 Ambassador Program[13] 与 Google 的 Advertising Professionals[14] 提供专家级的认证。

搜索引擎入手 新站点不需要”提交”到搜索引擎能够登记新上市。一个来自于以构建好的、其他站 点的简略链结都会使搜索引擎造访新站点,并且开始『爬』过该站内容。它或许 得花几天以至几周从那样一个已构建站点取得连接, 并让所有主要搜索引擎开始 拜访并索引新站点。 一旦搜索引擎发觉了新站点, 它通常将造访跟开始索引该站, 直到所有标准的 超链接被链结的页索引至为止。只能透过 Flash 或 JavaScript 才能造访的链 结或许不会被蜘蛛机器人找到。 当搜索引擎的蜘蛛机器人踏过一个站点时会取决相当数目的不同因子, 并且该站的许多页或许不会被索引至即便他们网页级别、连结、或流量降低至一个程度。 从站点的根目录至该页的距离, 以及其它比重考虑,也许只是决定是否该页得到 检索的诱因。Cho et al.(Cho et al. 1998) [15] 描述了这些页会被造访、哪些会 收入搜索引擎索引的决定标准。 网站员可透过在网际根目录里标准 robots.txt 档案指示蜘蛛机器人不索引这些文 件或目录。 标准的实现要求是搜索引擎在造访这个网际时参考这个文件,虽然搜 索引擎的蜘蛛机器人当它造访某站点网页时将保留这个文件的快取拷贝, 并且更 新速率没象网站员这么快。

网站发展人员或许使用这个特点避免这些页,譬如购 物车或其它动态、 特定用户的内容出现在搜索引擎结果中,并且避免机器人步入 死循环跟其它机器人骗局。 对于这些有偿递交的查寻引擎(像雅虎) ,支付象征性成本递交虽然会节约一些 时间,虽然雅虎有偿递交方案不保证递交人/公司包括在它们的查寻结果中。中 文的搜狐跟新浪 ask 等还要支付一定成本,但免费的非商业网站可以提供,当然 搜索引擎方并不保证一定收录相应的网站。 白帽方式 搜索引擎优化的白帽法包括依照搜索引擎这些可接受这些不能接受的指导方针。 他们的建议通常是为用户造就内容,而非搜索引擎、是使很多内容便于被蜘蛛机 器人索引、 并且不尝试对搜索引擎系统耍花招。网站员一直于设计或建立它们的 网站时,犯下致命错误、疏忽“毒害”该站因而排行不会挺好。白帽法优化员企 图发觉并纠正错误,譬如机器难以调用的选单、无效链接、临时改变导向、或粗 劣的导引结构。 因为搜索引擎是以文本为中心, 许多有助于网页亲和力的同样方式同样便利于搜 索引擎优化。这些方式包括优化图形内容、包括 ALT 属性、和提高文本说明。 甚至 Flash 动画可于设计该页时包括代替性内容──这原本拿来给访客难以阅读 Flash 的环境用的──来帮助优化。

这里是一些搜索引擎觉得适当的方式: 在每篇使用一个短、独特、和相关的标题。 编辑网页, 用与该页的主题有关的详细术语替换委婉的字眼。这有助于该站诉求 的观众群,在搜索引擎上搜救而被正确导引到该站。 在该站点提高相当数目的原创内容。 使用合理大小、准确描述的汇标,而不过于使用关键词、惊叹号、或不相关标题 术语。确认所有页可透过正常的链结来访问,而非只好透过 Java 、JavaScript 或 Macromedia Flash 应用程序访问。这可透过使用一个专属列举该站所有内容的网 页签署(网站地图) 透过自然方法开发链结:Google 不花工夫在这有点混淆不清的手册上。写封电 子短信给网站员,告诉他您昨天帖了一篇很好的文章,并且恳求链接,这种做法 大概太或许为搜索引擎所认可。 参与其他网站的网路企业集团(译按:web ring 指的是有相似主题的联姻站群)── 只要其它网站是独立的、分享同样题目、和可比较的品质。 黑帽方式 主条目:垃圾索引跟斗蓬法 垃圾索引(Spamdexing)意指透过欺诈技术跟滥用搜索算法来推销毫不相关、主 要以商业为着眼的网页。许多搜索引擎管理员觉得任何搜索引擎优化的方式,其 目的拿来改进网站的页排名者,都是垃圾索引。

然而,随时间溜走,业界内公众 舆论发展出什么是什么不是可接受的、 促进某站的搜索引擎排名与流量结果的手 段。 因为搜索引擎以高度自动化的形式运作, 网站员一般可以借助那些未被搜索引擎 认可的方式、 方法来推动排行。 这些方式一直未被留意即便搜索引擎雇工莅临该 站点并注意到不寻常活动、 或在排行算法上的某个小变化造成站点遗失以过去方 式取得的高排行。有时这些公司雇佣优化顾问评估竞争者的站点、和”不道德的” 优化方式向搜索引擎报告。当这种不好的垃圾索引被发觉时, 搜索引擎虽然会对这些被发觉使用不道德的 优化手段者采取行动。在 2006 年 2 月,Google 拿掉了 BMW 德国站跟 Ricoh 德 国站,因为它们用了很多方式[16]。 斗蓬法(cloaking)简单来讲就是网站站长用了两版不同的网页来达到优化的效 果。 一个版本只给搜索引擎看, 一个版本给人看。 搜索引擎说这些做法是不正规, 如发觉,该网站会永远从搜索引擎名单中被剔除[17]。 关键词隐密字 (hidden text with keyword stuffing) 是另外一误导搜索引擎的做 法。 通常是指设定关键词的色调跟网页背景色调一样, 或透过 css hidden attribute (隐密特征) 来达到优化疗效。

这种做法即便被 Google 发现,遭遇也会是该网 站从 Google 的数据库中解聘[18]。搜索引擎优化与营销 当这篇文章倾向推行间的搜索引擎优化师间戴哪种色调外套的差别, 这些产业写 照实际上对于这些促使业界这些影响很大成就部份的工作者着墨不多。 有相当多的优化实践者也是觉得把搜索引擎当成该站的另一个访客, 并设法使该 站点亲跟就像真正访客造访这些网页通常。 他们的工作焦点不集中于将许多术语 于搜索引擎排名最高, 而是帮助站点拥有者达到该站点的商业目标。这显然以实 现导引基本搜救结果、 甚或运用在搜索引擎做有偿广告的方式至这些页。至于其 他页,建立高质量网页吸引参与跟劝说, 阐明技术问题,这些方式可使搜索引 擎继续踏过并检索很多站。另,设定剖析程序可以使网站主考量该网站成就,并 且使该站更亲和更有用。 这些搜索引擎优化员或许是某组织的一员,或者是个顾问,而搜索引擎优化其实 只是它们每次例行工作的一部分。 通常它们有关搜索引擎功能的知识来自于峰会、 部落格、 一般的大会跟研讨会间的互动跟讨论主题、甚或经由在它们自己的站点 实验斩获。 目前很少的高中课程囊括电子交易观点的网上营销,可能肇因于网路 上一日数变的关系。

当许多人检阅跟致力于符合搜索引擎手册时──这可帮助某人于网路上的成功 打造坚固基础──跟着这种手册的结果实际上不过也是个开始。 许多人觉得搜索 引擎营销不过是个搜救优化下较大一点的总支而已, 但它或许是许多主要集中于 搜索引擎优化的老兵, 集合了更多更多的营销灵感所带给的成就。搜索引擎由于 认知至这一点,他们扩充了搜索引擎覆盖面,包括了 RSS 提供元、录像搜救、地 方结果、地图、和更多它们应当提供的功能。 法律案例 2002 年, 搜索引擎操作者 SearchKing 在俄克拉何马法庭提出了仲裁,反对搜索 引擎 Google。SearchKing 的要求是, Google 防止垃圾索引的方式构成了一条不 公正的商业惯例。这其实可想像为垃圾电子邮件营销者指控反垃圾电子邮件者, 如同许多反对地图以及其他 DNS 黑洞表(DNSBL)的案例。2003 年 1 月,法院 发布了一个 Google 胜诉的裁定摘要[19]。 高质量网站一般排行太优 对许多有心于最大化网站附加价值的网站员们,可阅读由搜索引擎出版的、以及 W3C 发行的编码手册。如果该手册被遵守,站点经常地更新,有用、原创的内 容,和完善几个实用、有意义的导出链接,获得相当可观数量的基本搜救流量不 是甚么难事。

当站点拥有有用的内容, 其它站点员自然而然会连接到该站,进而提高访客它的 网页级别跟访客流。 当访客发觉一个有用的网站,他们倾向于运用电子邮件或则 及时讯息链接介绍给其它访客。 总括来说, 增进网站品质的搜索引擎优化实现太或许比直接寻求操控搜救排行手 段的短期实现要活得长久。 顶尖的搜索引擎优化员们寻找的目标与搜索引擎追求 发扬光大的东西两者不约而同。他们是:相关性、对她们用户有用的内容。 转载请标明出处:蜗牛霜

© 版权声明
THE END
喜欢就支持以下吧
点赞0
分享
评论 抢沙发

请登录后发表评论