百度API推送
一键将网站链接推送给百度收录,实时查看推送结果和剩余额度,支持批量提交和本地存储API配置。
使用我们的「Robots 文件生成工具」,支持Robots规则配置可视化,支持百度、搜狗、Google、Bing 等主流爬虫的允许或拒绝策略,抓取间隔设置、屏蔽敏感目录、添加 Sitemap 地址,生成标准 robots.txt 文件。
📌 配置搜索引擎规则
在“所有搜索引擎”、“国内搜索引擎”、“国外搜索引擎”及“特殊搜索引擎”区域中,分别选择对应爬虫的访问策略:“允许”表示允许抓取,“拒绝”表示禁止收录,“默认”则沿用搜索引擎自身行为。选中项将以高亮状态显示。
⏱️ 设置检索间隔
在“检索间隔”选项中,选择希望搜索引擎抓取页面的时间间隔(单位:秒),可选不限、5、10、20、60 或 120 秒。合理设置可有效降低服务器负载,避免频繁爬取。
📁 添加限制目录
在“限制目录”输入框中填写需屏蔽的路径(如 /admin/、/bin/),路径必须以斜杠 "/" 开头并以 "/" 结尾。点击“添加限制目录”可增加多个条目,每个目录将被添加至 robots.txt 的 Disallow 规则中。
🗺️ 填写 Sitemap 文件地址
在“Sitemap 文件”输入框中填写站点地图完整 URL(如 https://www.yourdomain.com/sitemap.xml)。支持添加多个 Sitemap 地址,系统会自动将其写入 robots.txt 文件末尾,便于搜索引擎发现和索引。
🔄 生成 Robots 文件
完成所有配置后,点击“立即生成”按钮,系统将根据当前设置实时生成标准格式的 robots.txt 内容,并显示在下方文本区域中,包含 User-agent、Disallow、Crawl-delay 和 Sitemap 等完整指令。
💾 下载或复制结果
生成后可点击“下载文件”将 robots.txt 直接保存到本地;也可点击“复制结果”将文本内容一键复制,方便粘贴部署到网站根目录。
🗑️ 清空数据
点击“清空数据”按钮,可重置所有选项至初始状态,清除所有自定义目录与 Sitemap 条目,并清空生成结果,恢复工具默认界面,便于重新配置。
一键将网站链接推送给百度收录,实时查看推送结果和剩余额度,支持批量提交和本地存储API配置。
一键生成标准完整的网页META标签代码,精准配置搜索引擎索引规则,确保网站基础优化准确直观。
正则表达式代码生成工具,输入表达式自动生成7种语言的完整实现代码,支持快捷复制使用。
一键网页源码查看,智能解析/统计展示,支持多维度源码分析,全面掌握网站HTML结构。
网页自动刷新工具,实时定时刷新 / 精准间隔控制,支持URL格式全兼容,快速生成刷新预览结果,提升网页监控测试效率!
在线端口扫描,实时检测状态,支持自定义端口选择与目标类型,快速识别网络服务开放情况。
一键Robots.txt检测,智能解析/安全评估,支持多维度秒级扫描,全面优化网站爬虫管控。
一键SSL检测,实时解析/诊断,支持全平台证书分析,快速获取域名证书详情,提升运维安全效率!
一键解析蜘蛛日志,实时分析爬虫行为,支持域名、类型、状态码筛选,助力SEO优化!
IP地址一键智能解析,自动识别归属地至区县级,实时返回精准地理位置信息。
一键HTTP检测,实时解析/精准诊断,支持全头信息秒级响应,全面掌握网站状态,提升运维效率!
上传图片一键转ICO,智能生成透明图标,支持多尺寸下载,轻松制作网站Favicon,省时省力更专业!
支持百度、搜狗、360、头条、神马等国内主流搜索引擎,以及 Google、Bing、Yahoo、Yandex、DuckDuckGo 等国外搜索引擎的独立抓取规则设置,覆盖绝大多数爬虫类型。
标准格式为:User-agent: * 指定适用对象,Disallow: /path/ 禁止访问路径,Allow: /path/ 允许抓取,Crawl-delay: 10 控制抓取频率,Sitemap: URL 声明站点地图地址。
“所有搜索引擎”是全局规则,适用于所有爬虫;“特定引擎”可为百度、Google 等单独设置允许或拒绝策略,优先级高于通用规则,实现更精细的控制。
Crawl-delay 用于限制搜索引擎的抓取频率(单位:秒)。一般设置为 5~20 秒可有效减轻服务器压力;若网站响应快,可设为“不限”;高并发场景建议设置 60 秒以上。
路径必须以斜杠 "/" 开头并以 "/" 结尾,如 /admin/、/temp/。不支持通配符,每行一条路径,表示禁止搜索引擎访问该目录下的所有内容。
是的!本工具完全在浏览器端运行,所有配置、生成、下载过程均不经过服务器,无需联网,不收集任何信息,确保您的配置安全与隐私绝对可控。
每一次打赏,都会化作深夜默默修缮的灯火 🌙,只为让你用得更顺手一点 ✨。