检测结果:正常
Webdriver
CDP
User-Agent
Navigator
机器人威胁防护
指纹识别与机器人检测结合使用,可有效防范在线欺诈,协同作用下效果最佳
Chrome DevTools Protocol 检测
可检测是否使用开发者工具或协议模拟控制浏览器
Navigator
检测 Navigator 属性是否被篡改,防止插件或机器人伪装浏览器
该检测机制可识别浏览器或脚本中是否存在自动化活动。通过分析诸如浏览器指纹、JavaScript 执行能力、WebRTC 状态、Canvas 渲染、Navigator 对象、插件信息等属性,系统能够判断当前访问环境是否受控于自动化工具或真实用户操控。 目前,包括 Cloudflare Turnstile、Google reCAPTCHA、hCaptcha 等主流人机验证系统,都集成了类似的识别机制,在用户无需额外操作的前提下,对访问者进行隐式评估。
检测结果分类说明
1. 正常机器人(Good Bots)
这些通常是经过验证、信誉良好的自动化客户端,例如: 搜索引擎爬虫:Googlebot、Bingbot、Baiduspider 等,用于网页抓取和索引; 监控工具:如 Pingdom、UptimeRobot,确保站点可用性和性能监控; 合规的数据抓取服务:遵循 robots.txt 协议,并在 User-Agent 中明示身份。 这些机器人虽自动化,但对网站是友好的,且行为规范、频率可控。
2. 恶意机器人(Malicious Bots)
这类机器人通常由黑产、脚本开发者或攻击者控制,可能伪装为浏览器用户,常见特征包括: 使用 Selenium、Puppeteer、Playwright 等自动化测试工具; 模拟鼠标点击、键盘输入、表单提交等用户行为; 绕过登录、验证码等安全机制; 用于 账号接管、撞库攻击、内容抓取、价格爬虫、广告欺诈、DDoS 等行为。 即使 User-Agent 被伪造,它们的行为、TLS 指纹、JavaScript 属性仍可能暴露其自动化特征。
3. 未检测到机器人(Human / Unknown)
该类访问者行为表现为“非机器人”: 使用常规浏览器(Chrome、Safari、Firefox、Edge 等); 能正常执行 JavaScript、支持 Cookie 和 Storage; 浏览行为自然,交互路径多样,间隔合理。 这些用户通常是普通访问者,系统检测不到异常自动化特征,因此归类为“未检测到机器人”。