网站文章被长期采集会出现什么问题?
定期更新站内的文章几乎是每一个网站都会做的事情,当然不是每网站都注重原创,也不是每个网站都愿意花这个时间去做原创的文章,不少人就在用采集的方式在更新自己的网站文章。且不说大量采集他人文章的网站会怎么样,这里根据自己网站的实际情况,说一说长期处于被他人采集文章的网站会有什么样的后果,以及要避免被他人采集的方法。
百度BaiduSpider喜欢原创的东西,但是百度蜘蛛对于原创源址的判断目前还无法做到精准的地步,它并不能完全自主的判断某一篇文章它的始发点是哪里,当我们更新一篇文章,并且很快的被他人采集的时候,蜘蛛可能同一时间接触了到很多一摸一样的文章,那么它就会很迷茫,并不清楚到底哪个是原创的,哪些是复制的。
因此,当我们的网站长期处于被采集的状态的时候,我们网站上更新的文章大部分都在互联网上存在一样的内容,而假如网站权重又不够高,那么蜘蛛就很可能将你的网站列为采集站,它更相信你网站的文章是采集自互联网的,而不是互联网当中其他的站是采集你的文章。
一、网站内容被长期采集会出现的状况
当你的网站出现以下这几种状况的时候,说明搜索引擎蜘蛛可能已经误判你的网站内容为采集的了,作为一个专业的SEO人员,你就要开始仔细的检查你的网站内容是不是正在长期被人采集了。
1、先文章页停止收录,然后整个网站不收录
这点是一定会发生的,因为被百度误判为采集站,所以你的文章页一定会被百度列为考察期,在这个期间,文章页是一定会停止收录的。当然这个停止收录不会只是影响你的文章页,它也会让那个百度重新审核你整个网站,所以其他的页面也会渐渐的开始不收录。笔者的网站曾有半个月没有收录过一个页面,原因就是因为这个导致的。
2、网站收录开始减少,快照停滞
正如前面所说,百度会重新对你的网站进行考量,这个时候,一定会发现你网站存在着一些页面和互联网当中存在类似,百度会毫不考虑的减少你这些页面的收录,所以很多人发现网站停止收录之后,慢慢的引起了网站整个收录的减少,就是这个原因。页面不怎么收录,百度对网站的信任度下降,最终,快照也会停滞一段时间(具体可查看马海祥博客《》的相关介绍)。
3、排名并未有所波动,流量正常
当出现收录减少,快照停滞的时候,我们最关心的问题就是排名的问题,担心排名会有所影响。这点到是可以放心,因为文章被采集,导致自己站受到百度的考核,这个只是影响了百度对网站的信任度,并不会导致网站权重的下降,所以网站的关键词排名并不会受到影响。
4、改善之后,网站收录依然存在异常
假设我们发现自己网站被采集之后,我们对网站进行了一些改善,成功的避免了网站被采集,那么你的网站还会有一个适应期,整个适应期表现出来的症状为:网站渐渐的开始收录文章页,但是收录的并不是即时更新的文章,有可能是前天的或者大前天更新的。这样的症状大概会存在1周的时间,之后收录会慢慢的趋于正常,快照也会慢慢的恢复。
5、搜索引擎蜘蛛有爬取,但不抓取
分析网站日志,你会发现蜘蛛会爬取经常采集文章的页面,但是时间长了就不会抓取了,这可能是因为在搜索引擎蜘蛛看来,你的网站内容都是采集而来,网络上重复的内容太多,抓取你这样的一个小站,就浪费了资源,这样无疑是对网站收录有很大的影响。
一般做SEO的人都知道,在网络营销搜索引擎索引环节中搜索引擎蜘蛛会进行去重处理,其实在蜘蛛爬行的时候已经在进行检测,当蜘蛛爬行和抓取文件时会进行一定程度的复制内容检测,遇到权重低的网站推广上大量转载或抄袭内容时,很可能不再继续爬行。这也就是为什么很多站长查看日志的时候发现了蜘蛛,但是页面从来没有被抓取的原因,因为爬行发现是重复内容,那么它将放弃抓取,也就只停留在爬行过的阶段。
6、排名上不去,上去了也不稳定
当你发现你写的原创文章,已经收录后,排名却上不去,搜索看到的都是其他站转载的链接,甚至是排名上去了也不稳定,过了一天,排名又被降下去了,遇到这种情况,你就要仔细的查看一下,你网站的原创文章是不是正在长期被人采集了。
7、隐形降权
这个已经是达到搜索引擎的“忍耐限度”了,长期采集,导致网站的收录排名都不稳定,蜘蛛每次过去也获取不到想要的内容,已经从蜘蛛不喜欢的网站降为用户讨厌的网站,此时,百度就会将之前的排名都降降甚至是直接给你踢到百名之外,即降权。降权是网站面临最严重的问题。
不管你是采集别人的文章,还是别人采集你的文章,虽然我们的选择方式和目的也不一样,但是过度采集带来的后果都是一样的,所以采集之前我们也要权衡一下是否值得。
这一系列的现象都是当网站处于长期被他人采集的情况下会出现的,所以当你自己的网站存在这样的一些现象的时候,你首先要找的原因就是自己每天更新的文章是不是正在被别人采集。
二、长期被采集该怎么办?
如果你的网站已经是处于被人长期采集的情况了,作为SEO人员,肯定是要想办法解决的,当然别人要采集你的文章,你也不可能完全强制性的禁止到可以不让别人采集了,所以,我们能做的就是在自己本身上做一些改动。
1、提升页面权重
提升页面的权重是可以从根本上解决这个问题的,我们都知道,像A5、Chinaz这样的网站每天都会被别人采集,但是这完全没有影响到A5、Chinaz网站的收录,这就是因为他们的权重足够的高,当别人网站出现和他们一样的文章的时候,蜘蛛会默认的把他们的文章作为原创源。
所以,一定要提升文章页面的权重,多做一些这个页面的外链。
2、Rss合理利用
开发一个这样的功能也是有必要的,在网站文章有更新的时候,第一时间就让搜索引擎知道,主动出击,这样会很有助于收录的。而且Rss也能有效增加网站的流量,可以说是一举两得。
3、做一些细节,限制机器的采集
被人工采集还没什么,要是没人用工具定时、大量的采集你网站的文章,这确实让人很头疼,所以我们应该在页面的细节上做一些处理,至少能够防止机器的采集。比如页面不要设计的太传统、大众化;Url的写法要多变一些,不要成为默认叠加等设置;图片尽量加上水印,增加别人的采集文章后加工处理的时间成本。
4、被采集更新的文章多与自己网站有关
别人采集我们的文章,是因为他们也需要我们更新的内容,所以如果我们更新的都是与自己网站有关的信息,经常会穿插我们网站的名称,别人在采集的时候就会觉得我们的文章对他们并没有太多的意义,这也是很不错的避免采集的方式。
5、搜索引擎算法的完善
保持良好的心态,毕竟百度也推出了飓风算法来打击惩罚(具体可查看马海祥博客《》的相关介绍),原创文章被采集抄袭这是一个难题,技术上一直在改进优化,谷歌搜索引擎也不能完美解决这个问题,因此把自己的网站做好,让文章能够实现秒收录才是上策。
文章经常被采集,这肯定是会对我们产生影响的,所以我们要尽量的去避免,让自己网站的内容在互联网当中成为唯一性,提升百度对我们网站的信任度,让我们的优化工作更加顺畅。
我们回归搜索引擎的工作原理本质,它就是为了给用户搜索出结果的时候,能够满足并解决用户自身的需求。也就是说,不管你的文章怎么来的(采集文章也是能解决用户需求的),并且排版好看,逻辑表达清晰,可读性强,那是不是就符合了搜索引擎为用户提供有价值内容,解决用户搜索需求的本质?因此也就有了排名。
但是,这样的采集行为是不可行的,试想长期都给予采集内容更好的排名,就一定会引起原创作者的不忿。这样的情况持续下去,站长们都开始采集内容或者抄袭内容,不去生产原创文章或者伪原创文章。那么必定用户在使用搜索引擎查询时,解决用户需求的能力就会越来越弱。
因此,为了打造更好的互联网内容生态圈,搜索引擎会不断推出算法来打击采集站点,也会对原创内容给予一定的排名优待,鼓励原创作者创造更多的优质内容的。