当前位置:网站首页 / 建站知识 / 网站制作知识

网站制作如何合理的运用JavaScript

来源:未知时间:2014-04-27 08:47点击:

从事网站制作行业的人都知道JavaScript是功能强大的客户端脚本语言,都知道使用JavaScript能够编写出很多绚丽的效果,譬如雪花效果,下拉效果,浮动效果等等,那么有多少人知道我们在享受这些JavaScript编写出来的特效的快感的同时,搜索引擎是否喜欢呢?网站制作如何合理的运用JavaScript处理好和搜索引擎的关系,在视觉享受与搜索引擎优化直接找到一个平衡点,既能讨好搜索引擎提高网站排名,又能很好的给客户带来视觉上的享受。

合理运用Javascript消除对搜索引擎优化影响

大家都知道目前来说搜索引擎蜘蛛还没有办法处理javascript脚本的内容,原因很简单,即使作为一个较为简单的弱类型脚本语言,它依然是一门编程语言,有着各种各样的技巧,只有脚本解释引擎才能正确的解析执行,但是却没有像HTML那样的规定范式和框架,所以最终的输出结果获取难度要比HTML大得多,这点可以参考使用本机浏览器打开一个带有javascript脚本和不带javascript脚本的页面时本机的CPU和内存占用,就可以知道javascript脚本带来了相当的额外开销,而这部分开销属于投入大产出小的,所以可以预见在相当长一段时间内,搜索蜘蛛依然不能对javascript脚本实现很好的支持,除非搜索引擎开发商开发出了可以以较小的代价来获得javascript脚本执行结果的技术。但是网页上很多特效的实现依然需要依靠javascript才能完成(指望flash的解析更加不靠谱,那东西是编译好的swf,需要依靠逆向工程才能分析出源代码的玩意),所以我们在做网站的时候还是离不开javascript脚本的,那么怎样让javascript脚本不影响搜索引擎优化也就成了新手朋友们需要知道的一个问题了。

绝对避免导航及其他链接使用JavaScript。导航和链接是搜索引擎抓取网页的赖以生存之本,如果搜索引擎无法抓取网页,则代表了网页不会出现在索引结果中,也就无从谈起排名了。

尽量避免对内容使用JavaScript。尤其是与关键词相关部分的内容,应该尽量避免使用JavaScript来展现,否则毫无疑问是要降低关键词密度的。

实在需要使用JavaScript的部分,将这部分JavaScript脚本放在一个或几个.js文件中,这样能够避免干扰到搜索引擎的抓取和分析。

实在不能放在.js文件中的部分JavaScript脚本,将它们放在html代码的底端,</body之前,这样使搜索引擎分析网页时最后才会发现它,降低对搜索引擎的干扰。

网页上所有跟SEO相关的因素都用HTML表达出来,使用DOM进行特效控制。只要把所有跟SEO相关的因素使用HTML表达了出来,搜索蜘蛛就可以爬取到这段内容,进而收录这段内容或者根据其中的链接继续爬行,因为蜘蛛不抓取解析javascript脚本,所以使用DOM控制特效不会对蜘蛛抓取产生任何影响。如果你将需要爬行的链接通过变量赋值的方式依靠javascript脚本来显示的话,那么蜘蛛就无法获得链接的相关参数:锚文本、指向URL,如果你有不希望蜘蛛爬行的链接的话,将其写入javascript脚本变量是一个好办法。

如果有希望蜘蛛抓取的目标页面需要转向,不要使用javascript脚本进行跳转,因为这样做的话蜘蛛完全无法获取到目标页面的地址,采用noscript标记进行目标url指定是一个好办法,因为蜘蛛能够正确识别noscript标记,并且一般情况下不会对浏览器显示产生影响(除非你的浏览器屏蔽了脚本解释引擎)。

不要使用ajax来获取需要蜘蛛爬行的内容。ajax是一个好技术,尤其是在一些需要实时性要求比较高的系统中,可以很好的缓解服务器的压力,也可以实现需求时才查询取出数据内容,还可以对框架布局不产生影响,实现更炫的网页效果,但ajax的核心是通过javascript脚本来在需要时获取数据的技术,这样数据就不是在页面展示时就加载完成,那么就出现了第一项中所说的,蜘蛛获取不到这些内容,自然就无法抓取和爬行链接。

合理运用JavaScript提高搜索引擎优化效果

上面说的是消除JavaScript对搜索引擎优化不利影响的方法。其实反过来说,一个事物通常有利也有弊。JavaScript的使用也是这样,不一定使用JavaScript就一定是不好的,在一定程度上去利用JavaScript,反而对搜索引擎优化有很好的作用,也就是正面的作用。

我们有说到搜索引擎无法对JavaScript进行识别(虽然Google目前做到了对少量简单的JavaScript代码做出辨别,但那也应该只是Document write之类的简单代码)。那么换一个角度来说,我们完全可以利用JavaScript来过滤一些垃圾信息。

何谓垃圾信息?从搜索引擎优化的角度来说就是不仅对搜索引擎抓取分析没用,还会对关键词密度造成干扰等不利的信息。通常这些“垃圾”信息包括:广告、版权申明、大量导出链接、与内容不相关的信息等等。我们可以将这些垃圾信息通通扔进一个或数个.js文件中,从而降低对页面实质内容的干扰,提高关键词密度,向搜索引擎展示页面内容的核心。