对于任何一个网站的建设如果需要做SEO,那就应该在建站之初就从网站布局,代码编写,alt属性设置,内链设置,空间购买,DNS防护,文章的更新频率,主关键词和长尾词设置,静态化url设置,robots编写这9个方面都做好,当网站被正常收录以后,你的网站在百度中的排名将会慢慢的更加稳定而且也更加的靠前。我们分别从这十个方面来说明应该注意的细节。
1.网站布局:这个是网站的的内容布局模式,一般都是采取扁平化的树形模式,及将重要的文章和栏目布局到首页,然后通过首页点击栏目进入到列表页,在点击列表页中的标题进入最终页面,这样就给蜘蛛描述了一条相当于从树干到树枝在到树叶的抓取模式,这种方式能简单快捷的将所有文章都让蜘蛛爬行到,另外也需要生成rss地图和一般的HTML地图,目的是让蜘蛛能有更多渠道去抓取页面。
2.代码编写:一般采用DIV+CSS的模式来进行代码的编写,这样能使整个网站的代码和格式控制分离,从而达到减少首页体积的目的,这对打开速度和抓取的速度有极大的帮助,另外将所有的script文件都整合到一个JS,通过代码底部调用一次将所有函数都引入到页面中,起到减少请求,提高蜘蛛的友好程度。
3.alt属性设置:图片对于蜘蛛来说不认识,所以需要设置图片的ALT属性告诉蜘蛛这个图片是什么,并作为百度图片的索引的参数,通常将图片的这些参数设置完整,能带来更高的综合得分,另外alt的属性也要和主关键词相关,这能让主关键词的排名更稳定也更靠前。
4.内链设置:一个网站好不好,要看内部链接是否通畅而不混乱,而且要设置好相关性的链接,这有助于提高网站的阅读性和联系性,比如一篇介绍汽车的文章,其可以再相关性链接下面增加汽车的保养知识,汽车的品牌,汽车图片展示等等与之相关的信息,这对于读者和蜘蛛来说都是有好的。
5.空间购买:网站制作完成以后就需要购买空间或者服务器,一般的中小企业都是选择购买一个小型的虚拟主机,这是需要注意,市面上的一般两三百元那种都是共用一个IP的,而且一般同一个IP下都放着上百个网站,这就会出现连坐的情况受到牵连,所以选择空间的时候一般选择购买独立IP的空间,这样对蜘蛛更加友好,抓取数据的效率和访问的频率也更加的高。
6.DNS防护:空间购买以后就需要解析域名,一般来说现在有很多的漏洞扫描程序会通过服务器的漏洞和DNS的漏洞或者网站程序的漏洞作为攻击的切入点,而一旦被添加了恶意代码将会造成排名降低甚至被K的局面,所以我们通常在解析域名时都需要做DNS的防护,
7.文章的更新频率:文章质量要高,从字数和通畅性上要有保证,要真正的原创,作为企业网站,不求文章的数量,但求质量并围绕网站关键词来写,以提高相关性,另外也要观察同行业的企业排名好的网站的更新频率,保持同行业中中上游更新水平就可以了。这个时候常会犯的错误有:直接复制粘贴,原创的字数很少,文章不通顺写流水账,长久不更新。另外我认为每天更新原创内容是肯定没错的,但是对于大多数企业网站的排名维护来说是不切实际的,而且通过实际的观察发现,有一些企业排名好的网站,友情链接很少,文章也不常更新,域名也是近一两年的新域名,但是其排名却长期的雄踞首页,甚至是前几名,这让编者不得不思考一个问题,对于文章的更新频率是否需要辩证的来看待,比如网站如果是门户网站,那每天更新,甚至是分钟更新都没问题,所以这种网站求数量兼顾质量,而对于那些排名好的企业网站,我发现其结构的设置相对简单,文章都是原创而且质量较高,绝对不是复制粘贴修改来弄的,而且文章和其它诸如产品等都是围绕首页的关键词为中心来原创的。
8.主关键词和长尾词设置:主关键词就是我们一个网站的中心或者核心产品,要设置到首页的title,keyword,description中都要有所体现,并且后面的所有页面都要围绕着这些关键词去延展开来,比如职业装作为主关键词,那栏目和文章都要围绕职业装的面料,款式,穿着打扮,行业趋势等发散,而在写的文章中就需要将定制,定做,批发,生产,供应,订购,价格等作为
9.静态化url设置:虽然百度已经说了对静态和动态都是一视同仁的,但是从实际的打开速度来说静态的速度要快得多,主要还是静态页面不需要再去从数据库读取需要的文字和图片从而大大的减少了请求响应的时间。
10.robots编写:robots能够限定蜘蛛的抓取范围,这里也需要主要不要设置成了全部禁止,否则会出现网站不被收录和索引的情况。