你想优化WordPress的robots.txt文件?不知道为什么,以及如何robots.txt文件是搜索引擎优化的重要?我们已经得到了你覆盖。在这篇文章中,我们将告诉你如何优化你的WordPress的robots.txt的搜索引擎优化,并帮助您了解robots.txt文件的重要性。
最近,一个用户问我们,如果他们需要一个robots.txt文件,什么是它的重要性?您网站的robots.txt文件发挥网站的整体SEO业绩的重要作用。基本上,它可以让你与搜索引擎进行沟通,让他们知道你的网站,他们应该索引哪些部分。
我真的需要一个robots.txt文件?
robots.txt文件的缺席不会抓取和索引你的网站停止搜索引擎。但是,强烈建议您创建一个。如果你想提交你的网站的XML网站地图搜索引擎,那么这就是搜索引擎会寻找你的XML网站地图,除非你在谷歌网站管理员工具中指定它。
我们强烈建议,如果你没有在您的网站robots.txt文件,然后立即创建一个。
哪里Robots.txt文件?如何创建一个robots.txt文件?
robots.txt文件通常驻留在您的网站的根文件夹。您将需要连接到使用FTP客户端您的网站或通过使用的cPanel文件管理器进行查看。
它就像任何普通的文本文件,你可以用记事本等纯文本编辑器打开它。
如果你没有在你的站点的根目录下的robots.txt文件,那么你可以随时创建一个。所有你需要做的是在计算机上创建一个新的文本文件并将其保存为robots.txt的。接下来,只需将其上传到网站的根文件夹。
如何使用Robots.txt文件?
针对robots.txt文件的格式其实很简单。第一行通常名称的用户代理。用户代理实际上是你想与之通信的搜索机器人的名称。例如,谷歌机器人或Bingbot。您可以使用星号*指示所有的机器人。
下一行有如下允许或禁止搜索引擎的指令,让他们知道你想让他们的索引哪些部分,以及哪些是你不想要索引。
查看示例robots.txt文件:
User-Agent: *
Allow: /wp-content/uploads/
Disallow: /wp-content/plugins/
Disallow: /readme.html
在WordPress的这个示例robots.txt文件,我们已指示所有漫游索引我们的图片上传目录。
在接下来的两行,我们不允许他们的索引我们的WordPress插件目录和readme.html文件。
优化您的robots.txt文件的搜索引擎优化
在网站管理员准则,谷歌网站管理员建议不使用robots.txt文件来隐藏低质量的内容。如果你想使用robots.txt文件从索引您的类别,日期,和其他存档页面阻止谷歌,那么这可能不是一个明智的选择。
请记住,robots.txt的目的是为了指导机器人做什么用,他们抓取您网站上的内容。它不会抓取你的网站停止机器人。
还有其他的WordPress插件,让你可以添加像nofollow的和noindex元标签存档页面。 WordPress的搜索引擎插件,也可以让你做到这一点。我们并不是说,你应该有你的存档页面deindexed,但如果你想做到这一点,那就是这样做的正确方法。
你并不需要你的WordPress登录页面,admin目录,或注册页面添加到robots.txt的,因为登录和注册页面有noindex标记添加由WordPress的meta标签。
这是建议您禁止在robots.txt文件中readme.html文件。本自述文件可以使用别人谁是试图找出其中的WordPress版本所使用。如果这是一个个人,那么他们可以很容易地通过简单地浏览它访问该文件。
上如果有人使用特定版本上运行恶意查询定位WordPress网站另一方面,则此不允许标签可以保护你免受这些攻击的质量。
您也可以禁止你的WordPress插件目录。这将加强你的网站的安全,如果有人正在寻找一个特定的弱势插件漏洞的攻传。
加入你的XML网站地图到robots.txt文件
如果您正在使用Yoast的WordPress的搜索引擎插件或其他插件生成的XML网站地图,那么你的插件会自动尝试添加Sitemap相关行到robots.txt文件。
但是,如果它失败了,那么你的插件将显示你的链接到你的XML网站地图,您可以添加到您的robots.txt文件手动是这样的:
Sitemap: http://www.example.com/post-sitemap.xml
Sitemap: http://www.example.com/page-sitemap.xml
什么是一个理想的robots.txt文件应该是什么样子?
老实说,很多流行的博客非常简单易用的robots.txt文件。它们的内容有所不同,这取决于特定站点的需要:
什么是一个理想的robots.txt文件应该是什么样子?
老实说,很多流行的博客非常简单易用的robots.txt文件。它们的内容有所不同,这取决于特定站点的需要:
这robots.txt文件简单地告诉所有的机器人索引的所有内容,并提供给网站的XML网站地图的链接。