湘潭网站优化,减少无效URL的爬行和索引的8个小技巧

SEO工具 1年前 (2020) Mgo
0

湘潭网站优化,减少无效URL的爬行和索引的8个小技巧

  减少无效URL的爬行和索引的8个小技巧。很多网站,尤其是B2C,产品条件过滤系统(如选择产品的品牌、价格、尺寸、性能、参数等)会产生大量无效URL,之所以称为无效只是从seo角度看的,这些URL并不能产生SEO作用,反倒有负面作用,所以这些URL不收录为好,那要如何减少无效URL的爬行和检索呢?下面给大家分享下减少无效URL的爬行和索引的8个小技巧:

  1、将不想被收录的URL设置为动态的URL,动态参数越多越好,这样就能使蜘蛛不能爬行到甚至建立索引。

  2、使用robots禁止搜索引擎收录。

  3、我们可以将经过过滤的链接用AJAX的部分加载技术来展示内容,这样一来用户点击后不会访问到一个新的URL,还是在原来URL上。

  4、采用JS脚本语言来实现不想被搜索引擎抓取的内容

  5、还可以在页面head部分加noindex+follow标签,意思就是这个页面不要索引,但是会跟踪页面上的链接。

  6、使用canonical标签,问题是百度是否支持未知,canonical标签是对搜索引擎的建议,不是指令,也就是说这个标签搜索引擎可能不遵守,等于没用。

  7、我们也可以考虑使用隐藏页面(cloaking),也就是用程序检测访问者,是搜索引擎蜘蛛的话返回的页面拿掉这些过滤条件链接,是用户的话才返回正常的有过滤条件的页面。这也是一个比较理想的解决方法,但是有可能被当作作弊,胆大的可以试用。

  8、目前比较好的方法之一是iframe+robots禁止。我们可以将过滤部分代码放进iframe,等于调用其它文件内容,也即隐藏了内容。但不属于当前页面不等于不存在,搜索引擎也是可以发现iframe中的内容和链接的,还是可能爬行这些URL,所以加robots禁止爬行。iframe方法有一个潜在问题就是可能会被认为作弊。推荐阅读:搜索引擎的组成及工作原理

  不同网站SEO的重点不同,具体问题具体分析,采用上述方法中的一种或几种应该可以解决主要的问题。内容仅供参考,如有疑问详情可以咨询在线客服。

版权声明:Mgo 发表于 2020-01-02 12:21:00。
转载请注明:湘潭网站优化,减少无效URL的爬行和索引的8个小技巧 | 站长聚集地

暂无评论

暂无评论...