一聚教程网:一个值得你收藏的教程网站

热门教程

整站优化的方法整理

时间:2022-06-29 04:43:26 编辑:袖梨 来源:一聚教程网

 1、站内目录层次

  标准化得站内结构是为了能拥有一个简单的站内结构环境,所以对于目录的层次控制还是有一定的讲究,因为搜索引擎蜘蛛来到网站后,蜘蛛不一定是每一个目录都会爬行的,所以我们要尽量的把目录减少,而且目录太多给客户的访问页带来不便,因为用户访问网站后多层次目录是需要多次执行或者点击完成的,所以对于站内目录层次太多来说也给用户的操作带来很大的不便。

  2、robots的正确使用

  一个好的站内结构robots的设置是必不可少的,大家都知道蜘蛛来到我们网站抓取页面的,有些程序我们可以不用蜘蛛爬行,因为程序蜘蛛爬行后是不会收录的,原因很简单,程序目录里没有价值信息,所以收录几率极小,而且一个网站的程序被搜索引擎收录了也不是见好事,所以这个时候我们要用robots控制蜘蛛的爬行位置,本人建议各位在robots中禁止爬行程序,更多的允许爬行指向目录文件夹,这样蜘蛛可以确保每次收录都是有价值的信息页面。

  3、页面代码中不要出现太多非恶意蜘蛛陷阱

  非恶意蜘蛛陷阱是每一个网站都有的,因为有的时候我们就要用一些搜索引擎认为无法识别或者危险的东西来完成我们站内设计或者站内结构,所以非恶意蜘蛛陷阱是没有办法控制的,而且大家都感觉搜索引擎对非恶意蜘蛛陷阱的监管机制不是很严所以都放松警惕就没有理会他们,其实大家都想错了,在搜索引擎认为一个网站出现太多危险的或者有嫌疑的程序都是导致降权和被K的原因之一,所以尽量少用非恶意蜘蛛陷阱,有的碰有对非恶意蜘蛛陷阱不是很明白,那我给大家举例说明,比如说flash是一个搜索引擎蜘蛛无法识别的,因为flash在页面显示是一大串乱码,所以这个时候蜘蛛来到网站后感觉有危险,所以有可能直接跳出你的网站,还有JS,大家都知道JS无法管理的,因为网站要想达到一个效果没用JS有的效果是难以实现的,所以迫不得已也用JS了,所对于这些非恶意蜘蛛陷阱我们也要相当注意。

  4、站内结构清晰分明

  一个清晰的站内结构不管是给客户的操作还是蜘蛛的爬行收录都是铺了一条光明大道,让蜘蛛或者用户来到网站都可以清晰的分辨出那里是哪里,现在有很多网站的站内结构设置跟迷宫一样,当搜索引擎蜘蛛进入网站后分不清那里是哪里,站内的页面文件分布的很开,这样以来给蜘蛛的爬行带来很大的难题,这个时候需要我们把网站的站内结构设置的清晰分明,容易操作容易引导蜘蛛爬行,所以一个清晰的站内结构也很重要。

  5、站内目录以拼音字母命名

  现在又很多SEO朋友感觉自己很聪明,在文件夹取名中文,感觉这样搜索引擎可以爬行到给我们网站带来排名,其实这个方法是不好用的,也是做无用功,而且对于文件路径来说用中文搜索引擎蜘蛛也是无法爬行的,就像我们在JS里写上一个连接地址是一个性质的,所以我们做好把站内文件夹都设置成拼音,这样蜘蛛爬行后可以按照拼音的方式匹配关键词,大家不要忘记搜索引擎现在可是有智能分词的功能哦。

  6、站内关键词设置不要太过分

  有的朋友感觉在做SEO时,在站内页面中出现关键词越多就越容易做排名,其实这个说法是比较老套的,现在搜索引擎也对SEO有一定的管制限制,所以现在不像以前我们可以在页面狂加关键词就可以做上排名的时代了,而且现在对于页面出现太多关键词的页面搜索引擎会视为作弊,有可能你的网站后被搜索引擎服务器K掉,到时候你的站内和站外收录全部消失,这样就得不偿失了。

  7、站内不要大量使用nofollow

  有的站长觉得自己很聪明,在交换友情链接时总是在后缀加上nofollow,禁止传递权重给对方的压面,其实对于nofollow的使用搜索引擎是有一个原则的,如果说一个页面有太多的nofollow那么搜索引擎会感觉该网站在恶意做排名,所以不好意思你的网站很有可能会被K掉,而且对于站内结构来说nofollow出现太多是导致蜘蛛爬行次数少的罪魁祸首,所以在做SEO时候尽量不要用nofollow,厚道一些既然交换友情链接就遵循友情链接规则操作吧。

  8、站内页面尽量静态化

  其实页面尽量静态化是大家都知道需要操作的一种,而且对于静态化页面搜索引擎会非常信任,因为静态化的页面是无法自动生成无限循环或者危险动作的,所以搜索引擎一般对于静态化网站的考察期和信任期很短,但是如果动态网站做SEO,由于动态是可以无限生成循环的,搜索引擎为了保护蜘蛛,所以对于动态网站的考察时间延长,并且信任这个网站需要很长的时间,为了不耽误时间各位大家尽量生成静态,而且也不是说动态网站做不了SEO,只是考察期比一般的静态页面考察期要延长。

  9、站内设置sitemap

  一个网站收录的是否好坏不单一看网站的权重,其实更多的是操作,有的朋友会问那么如何能让蜘蛛有个好的站内收录,很简单大家可以自动生成sitemap,也就是站点地图,一个全站的站点地图可以有效的帮助蜘蛛看到可以收录的所有页面,所以收录概率会加大,一般来说设置sitemap是要生成XML的,当然HTML也是可以的,其他的我们可以不用管,只要生成这两种就可以了,而且我们也要在robots中写上我们的sitemap的地址,这样蜘蛛每次爬行robots都是会必须看到的。

  10、站内服务器的快慢

  蜘蛛爬行一个网站时,也好比一个用户来到网站一样,当然蜘蛛爬行的是代码,对于文字和代码以外的东西搜索引擎是无法识别的,但是对于网站的打开速度快慢蜘蛛是非常注重的,如果一个网站的服务器比较慢,那么给蜘蛛的体验是这个网站不稳定,而且蜘蛛每天都要完成一天的工作,如果你的网站长时间不能快速打开,蜘蛛可能今天就会放弃你这个站点不进行收录,这样的话你的网站以后很少会被蜘蛛爬行。

 

热门栏目