最近有件事情一直困扰着笔者小丹,其根源就是新上线的网站中至今没有一个被收录。即便笔者记得抓耳挠腮,搜索引擎依然固我的按照本身的规则来运行。
对于新站的优化至今尚未正式开始,这是笔者的痛啊!这种情况不知道是否有朋友与我相似,因找不缘由而将问题的根本归咎于搜索引擎本身,真的是如此吗?倘若有与笔者小丹有一样难题的朋友,那么我们今天来一起分析一下吧!
搜索引擎的收录工作一般就是发现网站—抓取—过滤信息—收录—输出索引内容,而若你的网站没有被收录,那么就意味着你的网站没有被搜索引擎发现,或者是因为某些原因致使即便网站明明被爬行却依然没有被收录。这个时候我们多会采用两种方式来推出我们的网站:第一,主动出击,提交网站和sitemap到站长平台;第二,被动抓取,就是通过制作外链来吸引蜘蛛爬行。如果要问这两种形式的高低之效,那笔者可以告诉你两种方式各有侧重,评分秋色,而两种方法一起使用则效果更佳。
明白了如何来加速新站被收录的方式,那么就要重点来剖析一下为何网站不能被收录的原因了?
网络世界数以千万,在数亿个网站中找到你确实不易,但是我们都直达,强大的搜索引擎就是有如此能力,一般会在上线后的4—6周将其收录,如果没有收录,那就证明我们的网站存在着问题。
第一,域名问题。一般来说,若你的网站域名在之前被处罚过,那么相对于全新域名来说去收录就会比较困难。这类域名需要一定的考核期,这有在确定该域名下的网站不存在违规现象时,才能将网站重新划为信任网站,将其收录。
第二,预收而不能。很多SEOer可能发现网站明明有蜘蛛爬行过的痕迹,为何依然不能被收录。这个就涉及到了蜘蛛的真假问题,今天笔者暂不详谈。我们主要来看看那些为什么蜘蛛不能爬行网站,首先要了解一下蜘蛛爬行过程,要域名转为IP,转化成相应的服务器,DNS解析,域名转为IP,找到IP所在服务器进行访问,若DNS出现问题或则是空间服务商出现了差错就会导致蜘蛛无法抓取。遇到这样的情况,那么你只需更改空间商,收录问题就迎刃而解了。
第三,robot效应。如果是因为网站设置了robot文件而造成的网站不能被收录现象,我们就只能为自己的粗心大意默哀了。在网站上线之初,因为网站尚未完善,很多SEOer会先在网站根目录中放入robot文件禁止搜搜引擎抓取,来避免因为网站不完整而造成的延长考核期现象。所以当你网站要正式上线的时候,希望站长先检查一下是否去除了robot文件。