当前位置:网站首页 > 网络教程 > 正文

robots协议文件SEO优化的方法

作者:小编日期:2022-03-15浏览:96分类:网络教程

robots协议文件SEO优化的方法

很多人做SEO优化却忽视了robots文件的重要性,大多数认为只要不禁止搜索引擎的蜘蛛抓取就可以了,但是有时候出现的SEO问题很有可能就是robots设置上的错误。

一、robots避免资源不被抓取

在设置robots时要谨慎不要禁止搜索引擎的蜘蛛抓取资源,虽然禁止抓取也能让搜素引擎知道页面资源情况,但是会延长SEO周期,全凭搜索引擎对网站的分析判断。

二、robots不要禁止JS和CSS文件

CSS文件负责网站展示效果(渲染),JS文件负责网站基础的交互判断(点击事件),可以理解为两者是有相互相成的因素,而搜素引擎会通过这两个文件分析网站情况,虽然搜索引擎会为了解网站直接通过路径访问JS和CSS文件,但是如果禁止抓取也会造成延长SEO周期的问题。

三、robots不要用通配符号

不建议用通配符号设置robots,以百度为例给出的配符号是*和$,因为这种配符号稍有不慎设置就会导致网站页面不收录的情况发声,尤其是内容URL路径有几种表达方式,搜索引擎很有可能会出现技术错误上的判断,比如只要有相关字母或者数字在URL其中就会不抓取,示例说明: Disallow: /a*,搜索引擎如果出现技术判断错误会把含有a的URL地址都不抓取。


绿软之家小编提示你:robots对于SEO优化都是细节上的处理,一定要谨慎,仔细的设置,需要充分的考虑到搜索引擎的蜘蛛抓取页面时的有效性和正确性。