XML地图 黑帽SEO培训为广大SEO爱好者提供免费SEO教程,致力于SEO优化、SEO服务
首页 > SEO培训 » 网页去重之内容去重

网页去重之内容去重

2018-11-30T17:30:48 | 人围观 | 关键词:网页去重之内容去重--SEO培训


  网页去重之内容去重
 

  去重算法他有一个发展升级的,简单的说就是最开始的Shingle算法,到后面的SuperShinge算法再升级到I-Match算法之后到SimHash算法,现在每个搜索引擎的算法都是在这些基础的算法上面进行升级改进,我们可以了解大致的原理。
 

  简单点说就是搜索引擎给每个页面一个指纹,每个页面分层很多个小模块,由很多个小模块组成一个页面,就像指纹一样由很多条线组成。
 

  知道这个原理的话我们就知道现在大家所做的伪原创是没有用的,打乱段落顺序,改一些词,是不会影响页面指纹的。
 

  真正的可以做到抄别人内容,还不被判定为重复内容要怎么去做呢?
 

  首先了解一个机制,搜索引擎存储的页面数据他是分层级的,简单点说就是你输入一个搜索词的时候它优先排名的是优质层的数据,其次再是普通层,劣质层。平时看到的很多高权重平台他的内页的排名也可以超过很多网站首页有这里面的原因。
 

  当2个网站程序代码几乎相同,内容也几乎相同的时候,搜索引擎怎么去发现他们是重复的呢?
 

  因为搜索引擎存储的数据量很大,不可能每存储一个新页面就把之前所有存储的页面拿出来对比,那他只能是通过算法判断拿出与新页面标题描述相关的优质层的页面,来与新页面进行重复度对比。如果重复度达到某个值那么他就会被判断为重复内容,就被去重算法给去掉不被收录,如果没有被判定为重复内容则被收录到劣质层。当你想对这个新页面做优化让他的排名有所提,进入到优质层,那它相应的要求也会提升,它会调取更多的页面数据出来,与其进行对比,而不仅仅是通过调取相关标题描述的数据。这样的话就会被搜索引擎发现,它不是原创的,通过综合的一个评估不给予它进入到优质层。
 

  这也是我们看到的一个现象,为什么很多抄的内容可以收录,但是没办法获得好的排名。
 

  如果我们抄了一篇文章,但是我们用了不同的标题,那对于搜索引擎来说,他在劣质层里面没办法发现他是重复的。这也是解释很多奇怪的现象,比如图中:
 


 

  一个克隆的网站,因为标题的不同,搜索引擎在抓取去重过程中没有发现它,但是之后如果这个页面想要进去到优质层数据库,它就会被发现是重复的,不会给予好的排名展现。
 

  总结:市面上面的伪原创工具是没有用的,没有影响要页面的指纹,如果非要抄别人的修改标题即可,但是不会获得好的排名。在新站初期可以用改标题的方法增加收录,增加网站蜘蛛,中期开始要自己做内容,为获得好的排名展现做铺垫。

      那如果就是想抄别人的内容,放到自己的网站上面,怎么把它变成优质的内容?

 

相关内容推荐:

Top