做SEO优化合理控制页面长度更有利于收录

一些SEO站长为了尽可能的展现内容,往往会让页面很长,尤其是医疗方面的网站,更是长的需要拉动下拉条才可能看到底。而这些网站往往都有一个共性,即页面中图片过多,且前面往往是幻灯片。因而,不少站长认为这种页面过长的网站也是极不容易收录的,那么,这是真的吗?

之前也提到过,页面过长的网站往往有一个特点就是图片很多,而且内容很长。各种分类加起来能顶其他企业站的两倍还多。而这样的网站往往需要浏览者保持良好耐心去浏览。所以,非真正有需求者,很少有人会去看。而对于这样的网站是否不收录,是要看情况的。

首先,网站的主体一般都是JS生成的,针对用户访问并未做过优化,但是为了吸引爬虫抓取,SEO站长也会对其进行优化,比如将图片直接做base64转化,这样就很容易出现前面提到的不收录的情况。也因此不少SEO站长感到困惑,我的页面质量非常好,而且还针对爬虫特意做了优化,为什么还不收录呢?

有经验的SEO站长都知道,网站针对爬虫爬取所做的优化,是很容易被收录的。但是有些站长会将图片二进制直接放入到HTML页面当中,这样就会导致页面长度超过规定的数值,因此不容易抓取。

其次,仔细看这些页面比较长的网站你会发现,这些网站还有一个共性就是图片在前,内容在后。以医疗站为例,医疗证的导航下面往往是四个幻灯片,这些幻灯片分别显示医疗的四大技术,以便吸引患者前来就诊。而接着就是医疗专家的介绍、技术、案例、新闻等,综合下来,这一网站要想完全看到自己想看的内容除非是自己拉动下拉条,否则能否找到还是未知数。

这样的网站对于用户来说没什么,顶多是拉动一下下拉条,但是对于爬虫来说就不一样了。过长的代码导致爬虫在抓取内容的时候,很容易被截断,已经抓取的部分往往是图片部分,这部分代码如果不精简,就会导致爬虫在很长的时间内抓取几张图片,而无有价值内容。

这样爬虫就会认为页面中没有有价值的内容。所以,最终的结果是,爬虫不会再来或者是即使来,也是三五个星期一次。周而复始,直到爬虫不再来。这样的网页自然也就不会被收录。那么,如何让网站被快速收录呢?想要展示更多的内容该怎么办呢?对此,有经验的SEO建议以下几点:

一、不要使用JS生成主体内容,一旦JS出故障,网页很容易出现读取错误,页面无法抓取的情况;

二、如果想要针对爬虫进行优化,尽量控制在128K之内。另外,尽量能精简代码,让代码看起来最少,这样爬虫更愿意多来你的网站逛一逛;

三、尽量将内容放在图片的前面,如果实在是想将图片放在前面,像医疗站那样的,可以将图片在另外的文本中写出来,然后通过JS调用实现,这样既能节省代码空间,还可以让网站看起来更漂亮。

总之,页面过长会导致不收录这种说法是不客观的,如果是有经验的SEO站长,能很好的处理代码,让首页代码精简化,那样同样会收录,同样排名很好。如果是没有经验的SEO,那么,结果肯定是不收录了。

SEO技术交流欢迎转载:红笺SEO » 做SEO优化合理控制页面长度更有利于收录

赞 (0)