从排名处理的细节把握SEO

搜索引擎抓取网页需要一个复杂的过程,给出排名同样如此。在经过爬行和抓取、建立索引、存档、计算页面相关性之后,还需要最后的几个环节才能最终完成一个网页的排名,这里分享几个平时可能不太了解的细节,希望共同进步。

  首先是排名的过滤与调整,当搜索引擎进行过匹配子集之后,其实大体的排名基本已经确定了。但还不是完全确定,还需要一些简单的过滤算法,对排名进行轻微调整,过滤中最重要的就是惩罚,无论是采用哪种作弊手法,一旦被搜索引擎检测出来的话就会给予处罚,虽然按照页面的相关性本来应该有好的排名,但是却有可能给予比较靠后的排名,最重要的就是11位排名和Google的负六、负30等算法。所以在做站的时候不要作弊,如果想长期做一个好站,那么请坚持自己的路,不要试图挑战搜索引擎的能力。

  其次是动态生成页面摘要。有时候发现网站显示的并不是自己制定的描述信息,而是搜索引擎从网页中动态抓取的,这个是正常的。特别对于Google而言,这种现象经常发生。很多人在开始的时候不了解这种现象,以为是自己的网站设置或者优化出了问题,看到显示不同步之后,就会到处发帖询问或者是修改描述,其实大可不必,这是良好的表现,说明搜索引擎想通过更多的方式去展现网站。

  再者是搜索缓存的使用。用户的数量是巨大的,搜索的词数量也是惊人的,但是很多用户可能搜的词差异不会太大,有的甚至完全相同。根据统计,基本上20% 的词是最热门的搜索词,占到总搜索量的80%,尤其对于热点新闻出现时,搜索词的重复率更高,所以搜索引擎不会每次都从数据库中重新检索,搜索引擎会把最常见的搜索词存入缓存,当用户搜索时直接调用。这点对于具体建站或者优化网站的意义不是太大,只是让大家起到一个了解的作用。

  最后用户的行为会被记录。这是重点,随着互联网的发展,以后搜索引擎会越来越智能化,去主动判断用户的搜索意图,从而给用户提供一个更加准确的搜索结果。不同的用户搜索同样一个关键词,想要找的结果也有可能不同,所以搜索引擎会记录用户搜索的行为,包括用户的IP地址、搜索的关键词以及时间,还会记录用户点击查看了那些页面,这些都会记录形成日志。这些日志文件中的数据对于搜索引擎判断用户的搜索结果以及调整算法都很有指导意义。给我们的提示就是要学会分析IIS日志以及站长统计的数据,应该向搜索引擎学习,通过这些统计为以后的建站优化提供指导意义,可以根据实时的数据进行调整。

  可能搜索引擎层面上的东西对我们没有直接的关系,怎么调整、怎么返回排名更多是搜索引擎的事情,但想要学好SEO就要先了解它的一些基本原理,包括预处理、索引、爬取和收录等,这些方面可能在实际中会更加复杂,只需要大致把握就行。



无觅相关文章插件,快速提升流量

评论已关闭!