首页 > 其他分享 >利用Robots.txt优化你的WordPress站点,并在google上检查是否优化成功

利用Robots.txt优化你的WordPress站点,并在google上检查是否优化成功

时间:2023-01-03 15:06:05浏览次数:64  
标签:google 抓取 robots Robots 搜索引擎 wp Disallow txt 优化


前言

我发现我的网站在google上有很多多余的网站被搜索结果收录了,很烦人。

利用Robots.txt优化你的WordPress站点,并在google上检查是否优化成功_robots.txt

很多建站新手对robots.txt文件的重要作用不是很清楚,利用这篇文章普及一下WordPress站点robots.txt文件编写知识。

爬虫robots协议

Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。

搜索引擎机器人访问网站时,首先会寻找站点根目录有没有 robots.txt文件,如果有这个文件就根据文件的内容确定收录范围,如果没有就按默认访问以及收录所有页面。另外,当搜索蜘蛛发现不存在robots.txt文件时,会产生一个404错误日志在服务器上,从而增加服务器的负担,因此为站点添加一个robots.txt文件还是很重要的。

知道Robots协议的作用后,下面具体说一下WordPress站点如何编写robots.txt文件。

WordPress站点如何编写 robots.txt文件

WordPress站点默认在浏览器中输入:http://你的域名/robots.txt,会显示如下内容:

User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/

这是由WordPress自动生成的,意思是告诉搜索引擎不要抓取后台程序文件。

但这是远远不够的,比较完整的WordPress站点robots.txt文件内容如下:

User-agent: *
Disallow: /wp-admin/
Disallow: /wp-content/
Disallow: /wp-includes/
Disallow: /*/comment-page-*
Disallow: /*?replytocom=*
Disallow: /category/*/page/
Disallow: /tag/*/page/
Disallow: /*/trackback
Disallow: /feed
Disallow: /*/feed
Disallow: /comments/feed
Disallow: /?s=*
Disallow: /*/?s=*\
Disallow: /*?*
Disallow: /attachment/

使用方法:新建一个名称为robots.txt文本文件,将上面的内容放进去,然后上传到网站根目录即可。

下面分别解释一下各项的作用:

1、Disallow: /wp-admin/、Disallow: /wp-content/和Disallow: /wp-includes/

用于告诉搜索引擎不要抓取后台程序文件页面。

2、Disallow: //comment-page-和Disallow: /?replytocom=

禁止搜索引擎抓取评论分页等相关链接。

3、Disallow: /category//page/和Disallow: /tag//page/

禁止搜索引擎抓取收录分类和标签的分页。

4、Disallow: /*/trackback

禁止搜索引擎抓取收录trackback等垃圾信息

5、Disallow: /feed、Disallow: /*/feed和Disallow: /comments/feed

禁止搜索引擎抓取收录feed链接,feed只用于订阅本站,与搜索引擎无关。

6、Disallow: /?s=和Disallow: //?s=*\

禁止搜索引擎抓取站内搜索结果

7、Disallow: /?

禁止搜索抓取动态页面

8、Disallow: /attachment/

禁止搜索引擎抓取附件页面,比如毫无意义的图片附件页面。

上面只是些基本的写法,当然还有很多,不过够用了。

在google上验证

登陆这个网址 ​​google robot验证工具​​,然后选择你自己的网站,就可以看到下面的样子。

利用Robots.txt优化你的WordPress站点,并在google上检查是否优化成功_搜索引擎_02

把我刚刚放上面的内容粘贴到这里,点提交

利用Robots.txt优化你的WordPress站点,并在google上检查是否优化成功_txt文件_03

点提交,刷新下这个页面,时间戳就更新了!



标签:google,抓取,robots,Robots,搜索引擎,wp,Disallow,txt,优化
From: https://blog.51cto.com/u_12392289/5985759

相关文章

  • 一文读懂数据库优化之分库分表
       本文从5W1H角度介绍了分库分表手段,其在解决如IO瓶颈、读写性能、物理存储瓶颈、内存瓶颈、单机故障影响面等问题的同时也带来如事务性、主键冲突、跨库joi......
  • 一文读懂数据库优化之分库分表
       本文从5W1H角度介绍了分库分表手段,其在解决如IO瓶颈、读写性能、物理存储瓶颈、内存瓶颈、单机故障影响面等问题的同时也带来如事务性、主键冲突、跨库joi......
  • MYSQL优化
    PerformanceSchema程序插桩消费者表是一个经常受到批评的特性。早期版本的MySQL对其的实现不够理想,导致资源消耗较高。通常的建议是干脆关掉它。这也被认为是难以理解......
  • 袋鼠云产品功能更新报告03期丨产品体验全面优化,请查收!
    年底啦~2022年即将走到尾声,不过袋鼠云对产品品质的坚持始终如一,这段时间我们对产品本身以及客户反馈的一些问题进行了持续的更新和优化,例如新增任务告警,进行了Connector相关......
  • .NET性能优化-使用RecyclableMemoryStream替代MemoryStream
     提到MemoryStream大家可能都不陌生,在编写代码中或多或少有使用过;比如Json序列化反序列化、导出PDF/Excel/Word、进行图片或者文字处理等场景。但是如果使用它高频、......
  • 数据库优化
    1.sql及索引优化 #查看慢sql日志是否开启,以及日志文件位置showvariableslike'slow_query_log%';#查看慢sql的界定时间sshowvariableslike'long_query_time';......
  • .NET性能优化-使用RecyclableMemoryStream替代MemoryStream
    提到MemoryStream大家可能都不陌生,在编写代码中或多或少有使用过;比如Json序列化反序列化、导出PDF/Excel/Word、进行图片或者文字处理等场景。但是如果使用它高频、大数据......
  • react 项目的性能优化
    react项目的性能优化有哪些?1、react模块化处理就是将react内容进行模块化划分,一个模块一个组件,react更新机制是组件重新更新2、在react项目中更新数据,不要直接将......
  • jango框架:Q查询进阶操作、ORM查询优化、ORM事务操作、ORM常用字段类型、ORM常用字段
    目录Q查询进阶操作ORM查询优化ORM查询优化之only与deferORM查询优化之select_related与prefetch_relatedORM事务操作ORM常用字段类型ORM常用字段参数Ajax异步提交基础语法......
  • MySQL中的sql优化
    目标:掌握SQL调优的原则掌握SQL调优的基本逻辑掌握优秀SQL的编写方案掌握何为慢SQL以及检测方案SQL优化原则1、减少数据量(表中数据太多可以分表,例如......