Robots.txt 测试工具

粘贴您的 robots.txt 并测试任何 URL 与任何爬虫的匹配情况,以查看哪些是允许的。

Robots.txt 测试工具功能

在部署之前验证您的爬虫规则。

规则匹配

准确显示哪个规则匹配,以及是允许还是拒绝。

用户代理支持

Test against specific crawlers like Googlebot or the wildcard *.

列出所有规则

一目了然地显示所选用户代理的所有适用规则。

关于 Robots.txt 测试工具

该工具允许您粘贴任何 robots.txt 文件,并测试其在特定爬虫和 URL 路径下的行为。它解析规则,找到最具体的匹配,并告诉您访问是被允许还是拒绝。

常见问题

这个工具是免费使用的吗?

是的,这个工具完全免费。

不需要账户或注册。

您可以随意使用它。

我的数据是私密的吗?

所有处理都在您的浏览器中进行。

您的 robots.txt 内容从未发送到任何服务器。

我们不会存储、记录或分享您的输入。

它支持通配符吗?

是的。路径中的 * 通配符是支持的。

还识别 $ 结尾锚点。

复杂模式使用正则表达式转换进行匹配。

如果没有规则匹配怎么办?

如果没有规则匹配,则默认认为该 URL 是允许的。

这是标准的 robots.txt 行为。

测试工具会清楚地说明未找到匹配规则时的情况。

它支持 Sitemap 指令吗?

Sitemap 指令是从 robots.txt 内容中解析的。

它不影响允许/拒绝规则,仅供参考。

Sitemap URL 显示在原始规则列表中。

它在移动设备上工作吗?

是的,该工具完全响应。

它可以在手机、平板电脑和桌面上使用。

无需下载应用程序。

支持哪些浏览器?

所有现代浏览器均受支持。

这包括 Chrome、Firefox、Safari 和 Edge。

保持浏览器更新以获得最佳效果。

我可以同时测试多个 URL 吗?

目前该工具一次只能测试一个 URL。

在输入框中更改 URL 路径,然后对每个 URL 点击再次测试。

在您测试时,robots.txt 内容保持加载。