网站页面的长度大小和收录的关系
以下说法引用百度官方工程师在社区对一个SEOer的回答。该SEOer对图片做了爬虫优化,反而导致了高质量页面无法被百度收录。针对这个问题做了针对性回答。
工程师分析:
1、网站针对爬虫爬取做的优化,直接将图片二进制内容放到了html中导致页面长度过长,网站页面长度达164k;
2、 站点优化后将主体内容放于最后,图片却放于前面;
3、爬虫抓取内容后,页面内容过长被截断,已抓取部分无法识别到主体内容,最终导致页面被认定为空短而不收录。
工程师建议:
1、不建议站点使用js生成主体内容,如js渲染出错,很可能导致页面内容读取错误,页面无法抓取
2、 如站点针对爬虫爬取做优化,建议页面长度在128k之内,不要过长
3、针对爬虫爬取做优化,请将主体内容放于前方,避免抓取截断造成的内容抓取不全。
说明:本文由SEO369团队编辑整理,有侵犯权益的地方请联系站长删除,如果需要了解更过SEO方面的知识请关注SEO369。
- 上一篇:百度清风算法的规则体系到底是什么?
- 下一篇:SEO是什么

- 频道总排行
- 百度官方:【郑重提醒】近期很多网站被判罚的原因在这里
- 浅谈友情链接的作用和交换方法
- 浅谈分析友好型的网站结构是怎么样的?
- 运营一个新网站项目分四步
- 网站排名好,流量少的原因及解法
- 网站外链建设方法探讨
- SEO中关键词优化的一些重点分析
- SEO优化方案该怎么写比较合理?
- 谈谈我对百度权重的一些看法
- 360站长平台悄然推出自动收录功能