导航
您所在的位置: 首页  >> seo基础教程 >> 揭秘网站没有被收录的基础原因

揭秘网站没有被收录的基础原因

很多网站因为自己的误操作,给网站做了门槛。本来是想设成允许蜘蛛来的,却弄巧成拙设成阻止了,所以我们要来揭秘网站没有被收录的基础原因有哪些:

一、在robots.txt文件设置了屏蔽

如果在分析网站日志时发现蜘蛛每天都会在网站抓取,但是网站依然是收录不充分,我们都知道蜘蛛来网站抓取时,首先会检索网站是否存在robots文件,这时我们很有必要检测网站的robots文件,来查看网站是不是已经存在不需要抓取的页面了,看看文件中是否含有阻止网站中某部分内容,导致网站不能被充分的收录。对于新手站长不知道写的robots文件是否符合自己想要的结果,可以利用百度站长工具robots功能,检测robots文件写法是否正确,步骤如图所示:

Robots工具检测步骤

Robots工具检测步骤

Robots工具检测方法

Robots工具检测方法

如想查看更详细可以查看桂林seo:如何书写一个保护网站隐私的Robots协议这篇文章。

二、robots meta标签设置禁止

网站页面上使用了 noindex标签是告诉蜘蛛不允许索引这个页面,我们更新的内容即使质量再高也不会被蜘蛛抓取。同时,nofollow标签告诉蜘蛛此页面上的链接不传递权重,如果网站上的页面链接都带有nofollow,那这就明显的告诉搜索引擎此页面没有任何价值。当然蜘蛛是不会来了。如果你的网站遇到不能被充分收录,检查下meta标签,是否存在错误的标签。

三、页面深度比较深,页面没有被访问过

对于一些大型的内容型网站,页面深度比较深的情况,我们可以完善网站的内链建设,把一些相关的页面通过内链的形式加在页面上,不要让网站的页面变成独立的页面,建立好导航和内链,或者给想要收录的页面增加外链,引导蜘蛛来抓取。提高页面在搜索引擎中的权重值。尽量不要使用nofollow标签、JS代码或者某些蜘蛛不能识别的转向等代码。

四、网站中大量的使用黑帽SEO优化页面被蜘蛛当做是作弊的内容

1、网站上如果长期使用隐藏文字在页面上进行关键词堆积,蜘蛛检索到网站上存在隐藏文字和链接,这时你的网站很有可能会被蜘蛛从索引中删除,不会再次出现在搜索页面中。

2、使用和背景一样颜色的文字,堆积大量的关键词,这种作弊也很容易被检测出来。

3、使用noscript标签,告诉浏览器当页面上有JS时,当浏览器关闭时,页面上该显示什样的内容,事实上是在noscript标签中堆积很多关键词,这种做法是相关有危险的,很容易就会导致内容被删除。

五、低质量内容被归为垃圾站点

不管是自身网站的重复内容,还是网站从外部获得的重复内容,蜘蛛都能一定程度的对其识别,对于重复的内容页面,蜘蛛不会继续放入自己的数据库,甚至会对一些低权重的网站,进行删除索引的操作。

在互联网垃圾泡沫的时代,要想真正的做到收录充分,挤在行业的前列,还是要坚持去做高质量的内容,这样才能长久在业界生存,网站权重才会越来越高。

转载请注明:广西seo-桂林seo-佳惠seo网站优化 » 揭秘网站没有被收录的基础原因

上一篇:
下一篇:
分享到:更多 ()

评论 1

评论前必须登录!

  1. #1

    好清楚

    爱新觉罗4年前 (2016-02-25)