首页
学习
活动
专区
圈层
工具
发布

CloakBrowser:有人把 Chromium 指纹改到了源码层

以下文章来源于AI工具教程,作者AI工具教程

我刚点开 CloakBrowser 的页面,先看到的不是功能列表,而是那句很直白的描述:

它不是配置补丁,也不是 JS 注入。

这句话有点冲。

做过网页自动化的人应该都懂,很多时候脚本还没开始跑,浏览器自己先“露馅”了。Canvas、WebGL、音频、字体、GPU、WebRTC、屏幕参数、CDP 输入信号,一层一层查下来,最后发现问题不在业务代码。

CloakBrowser 走的就是这条更重的路。

它直接基于 Chromium 做改动,把一批浏览器指纹信号放到 C++ 源码层处理。项目页里写到,早期是 49 个 source-level patch,最新版本已经提到 57 个 fingerprint patch,覆盖 canvas、WebGL、audio、fonts、GPU、screen、WebRTC、network timing、automation signals 等信号。

我停了一下。

因为这和常见的 stealth 插件不是一类东西。

很多自动化方案是在页面加载后补一层伪装,改 navigator、改 webdriver、塞一段 JS,能过一部分检测,但遇到更深一点的浏览器环境探测,很容易前后对不上。

CloakBrowser 的思路是:既然检测看的是浏览器本身,那就把浏览器本身改掉。

页面里还有一个humanize=True的开关。开启后,鼠标轨迹、键盘输入延迟、滚动行为都会按更接近真人操作的方式执行。这里不只是“能不能点到按钮”,而是点击前怎么移动、输入时每个字符之间停多久、滚动是不是一下一下机械地跳。

这类细节,以前很多人会自己在 Playwright 或 Puppeteer 外面包一层。

写着写着就变成一堆维护成本很高的小工具。

CloakBrowser 比较省事的地方,是它把自己做成了 Playwright / Puppeteer 的替代入口。原来的自动化代码不用大拆,换掉导入和启动方式,后面的 page、context、goto、click 这些动作还按原来的习惯走。

对已经有一套 Python 或 Node.js 自动化项目的人来说,这个改动成本确实低。

项目还给了 Docker 镜像和 profile manager。

这个点我觉得比“过了多少检测站”更值得看。

很多自动化任务麻烦的地方不是跑一次,而是长期跑。账号状态、Cookie、代理、指纹、会话,都要能保存下来。CloakBrowser 的 profile manager 就是往这个方向补:创建不同浏览器配置,绑定代理,保留持久会话,再通过 noVNC 打开操作。

当然,这东西也有边界。

它不是让人无视网站规则的通行证。用在自动化测试、内部系统巡检、合规数据采集这些场景里,能少掉不少浏览器环境层面的噪音;拿去硬撞风控,最后大概率还是会变成另一种消耗战。

但从工程角度看,CloakBrowser 这个项目有意思的地方就在这里:

它没有继续在脚本外面打补丁,而是直接把战场往浏览器底层挪了一格。

GitHub 地址:CloakHQ/CloakBrowser

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OYA-eD2SaWJQTz7uKuNshSww0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。
领券