网站收录数量是网站seo质量的基本标准,是网站权重的基础,关键词获得排名的重要因素。一般站长换友情链接只看快照跟新时间以及网站收录数量,可见网站收录数量的重要性。北京seo优化公司今天来聊聊关于网站收收录率低的一些相关问题。
一、多做友情链接,友情链接要讲究质量,一定要在大型的网站上留下你的网址,不止是文字,最好是留下带链接的网址
二、被robots.txt文件屏蔽
在分析网站日志时发现spider每天都会在网站抓取,但是网站依然是收录不充分,这时我们很有必要检测网站的robots文件,站长们都知道spider来网站抓取时,首先会检索网站是否存在robots文件,查看网站是否已经存在不需要抓取的页面,看文件中是否阻止了网站中某部分内容,很多站长因为不会正确的写robots文件,导致网站不能被充分的收录。对于很多新手站长不知道如何写文件,可以利用百度站长工具robots文件功能,可以检测你的文件写法是否正确,或者可以直接帮你生成文件,需要你填写屏蔽的文件路径即可。如下面的例子:
User-agent: *
Disallow: /news / 不允许所有的搜索引擎抓取news路径下的内容
如果某网站上添加了上面的文件,spider并不会抓取网站上在news路径下的内容,网站在news目录下更新的文章永远不会被收录,网站更新再多的文章,访问日志中spider每天都来抓取,但是对于这些内容还是不会给予收录。但是对于网站来说news下的内容是很重要的,这样错误的robots文件并是网站不能被充分收录的幕后黑手。
三、保持空间或服务器的稳定,如果原本的空间不稳定,那么及时更换一个是最直接的方法。
四、加强原创内容的更新,少点使用采集内容,特别是一些站长懒得更新使用自动采集的,建议尽量手动伪原创也比采集的要强。
五、robots meta标签禁止,网站在诊断的过程中,发现网站的实际收录率很低,网站有的栏目页可以被收录完整,但是有的栏目页更新原创的文章,也不会被收录,之后在检查网站代码时才发现,页面上使用了 noindex标签告诉spider不允许索引这个页面,显然保护这段代码的栏目页不会被收录,更新的内容即使质量再高也不会被抓取。同时,nofollow标签告诉spider此页面上的链接不传递权重,如果网站上的页面链接都带有nofollow,那这就是明显的告诉搜索引擎此页面没有任何价值。如果你的站遇到不能被充分收录,检查下meta标签,是否存在错误的标签。
六、检查友情链接及购买的链接,有降权或者不良风险的及时处理掉,购买的明链接继续保持其有效性。
七、增加首页的随机推荐,主要是为了让首页可以经常的有新内容让蜘蛛抓取,可以把蜘蛛养在网站上,随时收录最新更新的内容.
八、页面没有被访问过,特别对于一些大型的内容型网站来说,网站上的内容页面特别多,网站之间如果不能很好的建立内链,很多页面可能就会面临着被沉底不收录的现象,这些页面大多数离网站首页深度比较深,spider无法对页面进行爬行,导致不能被spider收录。或者是链接到此页面的链接都是加了nofollow标签,不传递任何权重的链接。因为这种原因导致网站不被充分收录比较冤枉,对于网站的建设来说,最好不要在网站上使用nofollow标签、JS代码、或者spider不能识别的转向等。对于网站页面深度比较深的情况,站长们可以完善网站的内链建设,不要网站的页面变成独立的页面,建立好导航和内链,或者给想要收录的页面增加外链,提高页面在搜索引擎中的权重值。
九、被spider当做是作弊的内容,网站中大量的使用黑帽SEO,作弊的手法优化页面,这样的页面spider是不会给予收录的。网站上长期使用隐藏文字在页面上进行关键词堆积,网站上对spider检索到存在隐藏文字和链接,这时你的网站很有可能会被spider从索引中删除,不会再次出现在搜索页面中。站长们可能会问什么是作弊的内容,如最初的作弊方法使用和背景颜色相同的文字,堆积大量的关键词,这种作弊方法很容易被检测出来;使用noscript标签,告诉浏览器当页面上有JS时,当浏览器关闭时,页面上该显示什么内容,事实上是在noscript标签中堆积很多关键词,这种做法是相关有危险的,很容易就会导致内容被删除。
十、提前规划好网站内部框架结构
基本上现在常见的开源程序在建站后都会有一个良好的网站结构目录,但是因为每一个网站的风格不一样,不可避免的就会因为网站目录结构设计不合理导致网站后期收录不是太好。
关于提升收录率的问题其实还有非常多可聊到的地方,特别是一些具体的实际操作细节问题,技巧非常多,也需要大量的实践来提升收录率。提高网站的收录率的根本在于尊重搜索引擎收录规则,尽量发布原创文章。这样搜索率一定会得到提升。
本文由凡度网络北京网络公司(www.sun66.net)收集整理,转载请注明出处,感谢!