zwjdujin 发表于 2024-7-30 17:57:18

【待反馈】宝塔云waf如何拦截所有机器人和蜘蛛?

宝塔云waf如何设置规则可以拦截所有机器人和蜘蛛?

即便设置了“所有访问都需要通过无感验证”都仍旧有蜘蛛过来。请问该如何彻底拦截所有机器人和蜘蛛?

快猫云高防服务器无视DDoS 发表于 2024-7-30 18:22:37

自定义规则分析UA

是山河呀 发表于 2024-7-31 08:52:41

机器人和蜘蛛都是正常的访问,这个没办法解决的

zwjdujin 发表于 2024-7-31 09:51:44

快猫云高防服务器无视DDoS 发表于 2024-7-30 18:22
自定义规则分析UA

那只要UA模糊匹配bot、Spider、Google是不是就基本上的搜索引擎都屏蔽了?如何屏蔽一些小的搜索引擎以及扫描呢?

天天进步 发表于 2024-7-31 14:12:11

本帖最后由 天天进步 于 2024-7-31 14:25 编辑

zwjdujin 发表于 2024-7-31 09:51
那只要UA模糊匹配bot、Spider、Google是不是就基本上的搜索引擎都屏蔽了?如何屏蔽一些小的搜索引擎以及 ...
User-Agent 是可以伪造的,想完全过滤是不可能的,除非定制开发nginx lua脚本来处理。貌似面板Nginx防火墙cc防御设置合理应该可以。

运维技术阿闯 发表于 2024-7-31 16:31:18

zwjdujin 发表于 2024-7-31 09:51
那只要UA模糊匹配bot、Spider、Google是不是就基本上的搜索引擎都屏蔽了?如何屏蔽一些小的搜索引擎以及 ...

您好,您这边可以尝试使用黑名单,UA黑名单

zwjdujin 发表于 2024-8-1 10:10:43

运维技术阿闯 发表于 2024-7-31 16:31
您好,您这边可以尝试使用黑名单,UA黑名单

使用黑名单和UA黑名单岂不是影响所有网站?我自定义的话只针对个别网站。

运维技术阿闯 发表于 2024-8-1 18:03:59

zwjdujin 发表于 2024-8-1 10:10
使用黑名单和UA黑名单岂不是影响所有网站?我自定义的话只针对个别网站。 ...

您好,您可以将通过访问的ua来进行拉黑,而不是站点的
页: [1]
查看完整版本: 【待反馈】宝塔云waf如何拦截所有机器人和蜘蛛?