致力于提供建站技巧、常见问题等知识问答服务

robots文件如何设置?对网站优化有什么意义?

3 | 匿名 |浏览1058次
收藏|2019/05/31 15:03

公司做网站优化很久了,一直不是很了解robots文件该怎么设置,也不知道设置它对网站优化有没有作用,求解答。

满意回答

2020/01/08 15:17

       robots文件用于指令搜索引擎禁止抓取网站某些内容或者指定抓取网站某些内容。因为robots文件是针对搜索引擎的,所以运用好能够增加搜索引擎爬取网站的体验度从而增加网站收录量。

       1. 屏蔽网站的空、死链接

       由于网站内容的修改以及删除,容易导致网站内的一些内链失效变为空链或者死链。通常我们会对网站定期检查空链和死链,将这些链接提取出来,写入robots文件之中,防止搜索引擎爬取该链接,间接提升搜索引擎的体验。该种方式是有效的,因为修改已经收录的内容时会使得搜索引擎重新的爬取修改过的网页,再次判断是否进行收录,如果没有继续收录了,那么就得不尝试了。

       2. 防止蜘蛛爬取网站重复内容

       因为网站很多的动态页面搜索引擎时无法收录的,所以很多时候我们需要对于这些动态页面进行制定一个静态的页面以助于搜索引擎收录。这时候就让搜索引擎不要爬取某一些重复的内容,可以减少站内的页面关键词权重竞争。

       3. 防止蜘蛛爬取无意义内容,浪费服务器资源

       网站上是有很多的内容都是一些无意义的内容,例如网站的各种脚本代码、css文件和php文件等等,这些文件对于网站优化都是无意义的,爬取这些网站不仅不会收录,而且还会浪费服务器的资源。上图中很多禁止访问的内容都是这类无意义的文件目录。

       4. 保护网站隐私内容

       网站有很多的页面都是有着一定隐私的,例如一个用户接受的推送又或者是购物车等等,这些链接虽然在一个页面之中有,但是显然是不希望搜索引擎爬取的内容。

       5. 有利于网站调试

       在网站初步上线前都会有着一定的错误,需要一段时间的调试再对搜索引擎开放爬取,在调试期间就可以将robots文件设置为对于所有的搜索引擎都处于拒绝爬取状态,等所有的错误都解决后再修改robots文件。

       我在海之睿公司工作,对网站优化有些了解,上面是我的个人见解,希望对你有帮助。


bear

其他回答(1)
  •        1.User-agent的设置

           在"robots.txt"文件中,如果有多条 User-agent 记录说明有多个 robot 会受到"robots.txt"的限制,对该文件来说,至少要有一条 User-agent 记录。如果该项的值设为*,则对任何 robot均有效,在"robots.txt"文件中,"User-agent:*"这样的记录只能有一条。

           2.Disallow的设置

           这个值可以是一条完整的路径,也可以是路径的非空前缀,以 Disallow 项的值开头的URL不会被 robot 访问。

           3.Allow的设置

           与 Disallow 项相似,这个值可以是一条完整的路径,也可以是路径的前缀,以 Allow项的值开头的 URL是允许robot访问的。

           

    回答于 2019/05/31 15:15
0人关注该问题
一周热点问题
+1
 加载中...