Google在处理内容原创性的问题?

  Google最近有很大的变化,有一个变化特别值得探讨,加大了Googlebot的抓取能力,加快了对新页面的收录。个人觉得这个是可喜的变化,很有可能正在处理的是近期一直在海内外讨论最多的内容原创性问题。

  内容原创性问题,这个在世界都看来都比较头疼,特别是在版权意识还不够深入的中国,造就了大量的采集站和复制站点,衍生的含有大型站点复制内容,确比原创排名更好,收录更为及时。

  不考虑其他可能的如法律等因素,仅从技术上考虑,要解决这个问题也不是那么容易,毕竟在转载的同时无法保证全部的转载都留有backlink,而Google的最近收录加快是不是代表从基本的收录就在解决这个问题:加快新站或者说保证所有张收录速度都是一样的,那么以收录时间来判断是哪儿的原创问题。

  这样的做法就是说,谁先发出,即刻给排名,后面收录的不管你是权重多高的站点,都在该原创之下。这样的话,就可以极力打击采集站点,当然,对于转载站点来说,效果也是一样。 当然,任何东西没有十全十美,算法只是一种补充而已,中间还是可能出现转载站或者采集站偶尔高过现在的站。但如果google发现全部文章他的数据库里都有原始的记录,说简单点,就是说存在相同的记录,那么就减缓这个站的收录。一个小小的变化就解决了比较大的问题。我觉得Google算法的动机上还是考虑了大部分站长的利益。

  在中国特色的环境下,这种算法的出现无疑是一种最稳妥的解决方案。Google进入本土化运营以后,在这方面的一直在努力,不知道下次的算法更新是怎么样的惊喜?

  网友评论:(只显示最新10条。评论内容只代表网友观点,与本站立场无关!)