返回上一页

在线Robots文件生成工具

使用我们的「Robots 文件生成工具」,支持Robots规则配置可视化,支持百度、搜狗、Google、Bing 等主流爬虫的允许或拒绝策略,抓取间隔设置、屏蔽敏感目录、添加 Sitemap 地址,生成标准 robots.txt 文件。

删除
添加限制目录
删除
添加限制目录

使用说明

📌 配置搜索引擎规则

在“所有搜索引擎”、“国内搜索引擎”、“国外搜索引擎”及“特殊搜索引擎”区域中,分别选择对应爬虫的访问策略:“允许”表示允许抓取,“拒绝”表示禁止收录,“默认”则沿用搜索引擎自身行为。选中项将以高亮状态显示。

⏱️ 设置检索间隔

在“检索间隔”选项中,选择希望搜索引擎抓取页面的时间间隔(单位:秒),可选不限、5、10、20、60 或 120 秒。合理设置可有效降低服务器负载,避免频繁爬取。

📁 添加限制目录

在“限制目录”输入框中填写需屏蔽的路径(如 /admin//bin/),路径必须以斜杠 "/" 开头并以 "/" 结尾。点击“添加限制目录”可增加多个条目,每个目录将被添加至 robots.txt 的 Disallow 规则中。

🗺️ 填写 Sitemap 文件地址

在“Sitemap 文件”输入框中填写站点地图完整 URL(如 https://www.yourdomain.com/sitemap.xml)。支持添加多个 Sitemap 地址,系统会自动将其写入 robots.txt 文件末尾,便于搜索引擎发现和索引。

🔄 生成 Robots 文件

完成所有配置后,点击“立即生成”按钮,系统将根据当前设置实时生成标准格式的 robots.txt 内容,并显示在下方文本区域中,包含 User-agent、Disallow、Crawl-delay 和 Sitemap 等完整指令。

💾 下载或复制结果

生成后可点击“下载文件”将 robots.txt 直接保存到本地;也可点击“复制结果”将文本内容一键复制,方便粘贴部署到网站根目录。

🗑️ 清空数据

点击“清空数据”按钮,可重置所有选项至初始状态,清除所有自定义目录与 Sitemap 条目,并清空生成结果,恢复工具默认界面,便于重新配置。

最新工具

常见问题

✔️ 这个工具支持哪些搜索引擎的规则配置?

支持百度、搜狗、360、头条、神马等国内主流搜索引擎,以及 Google、Bing、Yahoo、Yandex、DuckDuckGo 等国外搜索引擎的独立抓取规则设置,覆盖绝大多数爬虫类型。

📌 robots.txt 的基本语法是什么?

标准格式为:User-agent: * 指定适用对象,Disallow: /path/ 禁止访问路径,Allow: /path/ 允许抓取,Crawl-delay: 10 控制抓取频率,Sitemap: URL 声明站点地图地址。

🎯 “所有搜索引擎”和“特定引擎”有什么区别?

“所有搜索引擎”是全局规则,适用于所有爬虫;“特定引擎”可为百度、Google 等单独设置允许或拒绝策略,优先级高于通用规则,实现更精细的控制。

📘 什么是 Crawl-delay?设置多少合适?

Crawl-delay 用于限制搜索引擎的抓取频率(单位:秒)。一般设置为 5~20 秒可有效减轻服务器压力;若网站响应快,可设为“不限”;高并发场景建议设置 60 秒以上。

🔭 如何正确填写“限制目录”?

路径必须以斜杠 "/" 开头并以 "/" 结尾,如 /admin//temp/。不支持通配符,每行一条路径,表示禁止搜索引擎访问该目录下的所有内容。

🔒 所有操作都在本地完成吗?会不会上传我的数据?

是的!本工具完全在浏览器端运行,所有配置、生成、下载过程均不经过服务器,无需联网,不收集任何信息,确保您的配置安全与隐私绝对可控。

🧡 每一份支持,都让我们走得更坚定

每一次打赏,都会化作深夜默默修缮的灯火 🌙,只为让你用得更顺手一点 ✨。

微信/支付宝二合一收款二维码