网站首页被K和只剩首页的区别及解决方法...

来源:网页教学 时间:2012-03-06 11:30:19  浏览次数:0

  网站被K是很头疼的事情,恢复周期很漫长,没什么操作过度,一般都会很快恢复,采取作弊的手段去优化,必死无疑了,也有K掉首页,网站还有收录,甚至K光什么都没有了,肯定有原因造成的,站长界流行一句话:百度一更新,回到解放前了。网站被K不可怕,恢复时间很可怕,谁也说不准到底什么时候就恢复网站收录和权重。那我们怎么去区别首页被K和只剩首页的区别及解决?

  被K有恢复的:百度数据库的原因

  百度5.20事件就是一个证明,大部分也恢复了,也有少许的没被恢复。只能等待了,不然可以直接换域名重新做站了。

  被K没有恢复:

  内容更新少

  都没有更新,搜索引擎以为这个网站已经没人管理,数据库也有饱满的时候,肯定定时删除一些内容少,更新不是很频繁的网站收录了。旧的不去新的不来,用户老是搜索到以前的东西,没有新的东西出现那肯定要放弃这个搜索引擎了。

  内容重复

  采集站刚开始被收录的很多,流量排名还算可以,可惜到了一段时间就被整站拔毛了,用户体验极差,一打开看到的不是内容而是一大堆广告,内容都是千篇一律的东西了,没有足够的可读性,用户会在这里浪费时间继续浏览吗?多写些原创文章,多写点自己的心得。

  底部回链多

  很多站长喜欢在首页放很多描文本,导致优化过度了,最好的就是采取下面只有一个链接即可。

  样板文字多、相似度大。

  大部分是边缘类的网站:淘宝客、分类信息二次搜索、机械电源、医疗类的、小说电影·

  回链:给自己的首页加很多链接

  样板文字:每个页都会出现的文字。

  相似度:文字出现相似的程度。30%以下

  查询:http://www.webconfs.com/similar-page-checker.php

  有的网站模板可能被搜索引擎不怎么友好了,例如:API淘客程序等被百度经常拔毛掉了,最好就是换个不是很热门的那种来安装,误认为是某个网站的镜像站。

  平常被K的原因:

  1、优化过度;一下子加了好几个高权重链接、关键词堆砌、买链接、刷流量、底部回链很多。

  买链接谷歌已经开始打击了,百度也会采取一定的措施吧,外链在排名因素占的比例也是很多的,关键字堆砌是最多黑帽seoer做的手段,这也是百度一个致命的弱点,自己加了老站外链资源,可能判断为站群这样,刷流量是傻的方法,只能暂时的瞒住搜索引擎,一发现就被K掉了,底部那里感觉像是挂黑链或是卖链接的。成堆的首页回链过多造成优化过度。

  2、服务器不稳定。503、404,服务器稳定性是个长久的话题,做seo的第一步就要有个稳定的空间,不然后期维护就不好弄了,网站老打不开,用户就容易丢失,那排名也会掉的,解决方法直接换别的空间了,好货不便宜,便宜没好货。

  3、被挂黑链,网站安全性不高,长期不管理,导致被入侵挂黑链,直接赶紧删除,或是换别的空间了。

  4、群发、假签名。群发的内容质量非常低,管理员删帖、封号。群发那也要技巧,你发的东西都是没什么可读性,更不谈有什么相关性了,管理员还能让你的帖子存在的话,你也够幸运的了,一般都是直接禁止访问和禁言。假签名根本没什么作用,只是用JS调用了数据而已,搜索引擎是抓取不到JS调用的内容。

  5、经常修改标题和关键词。新站发生最多了,感觉这个关键词没什么流量,或是刚开始选错了, 竞争很大又重新换别的词来优化,标题不是很好,都是模仿人家的,还不如自己原创下,改标题那是伤元气的,最好是等有了一定的权重在慢慢修改。

  只剩首页的原因

  1、内容质量太差。

  老是采集人家的东西,还不如自己创新一下,都没什么可读性,用户能留的住吗?质量太差搜索引擎也会删除的,最近百度收录老减少就是在打击站群采取的行动,搜索引擎是给用户提供帮助的,不是帮站长制造垃圾的。就算更新不频繁,至少内容质量过的去吧。

  2、网站改版,修改URL目录 Robots.txt屏蔽

  网站改版应该要做好404页面,新老域名301重定向,Robots.txt屏蔽,目录地址最好恢复原来的,等用户在搜索引擎看到网站内容,打开却是错误页面,就可能失去一个用户了。

  3、外链丢失。

  帐号被删除、补外链,多发些高质量的,别老是做论坛个性签名,一旦丢失了,排名也会浮动的,只能到别的外链发布地方补回来,数量也要,质量更要了。

  首页被K和只剩首页的区别及解决就这几点,其实也满轻松的,恢复周期就是有点漫长,没有被K的网站不是好网站,K过了才知道自己网站问题出现在哪里?从而去解决掉,打造一个好的网站。转载请注明 www.171wz.com 站长之手,谢谢合作!

推荐文章