你正在开发一个需要自动浏览网页的应用。你需要从某个电商网站抓取产品价格,从社交媒体获取最新讨论,还要自动填写几个表单。传统的做法是写一套Puppeteer或Playwright脚本,但这意味着要处理反爬虫、等待元素加载、解析动态内容等一系列问题。每次网站改版,脚本可能就失效了。
现在有一个更智能的解决方案。hyperbrowser-mcp是一个MCP服务器,它让你可以直接用AI来驱动浏览器。你只需要告诉AI你的目标,比如“去亚马逊搜索最新款的耳机,然后把前五个结果的价格和评分抓出来”,它就会调用Hyperbrowser的浏览器自动化能力,替你完成整个操作。而且你还可以选择不同的“浏览器代理”,比如OpenAI的CUA模型、Anthropic的Claude Computer Use,或者是轻量级的Browser Use。
项目基本信息
| 信息项 | 详情 |
|---|---|
| 项目名称 | hyperbrowser-mcp |
| GitHub地址 | https://github.com/hyperbrowserai/mcp |
| 项目描述 | A MCP server implementation for hyperbrowser |
| 作者 | hyperbrowserai |
| 开源协议 | MIT License |
| 开源状态 | 公开状态 |
| Languages | TypeScript 97.4%, JavaScript 1.6%, Other 1.0% |
| 支持平台 | Windows / macOS / Linux |
| 最后更新 | 2026-03-28 |
一、项目介绍
hyperbrowser-mcp是Hyperbrowser平台的官方MCP服务器实现。Hyperbrowser本身是一个浏览器自动化基础设施,提供了网页抓取、结构化数据提取、爬虫以及多种AI驱动的浏览器代理能力。而这个MCP服务器则是这些能力的统一接口,让任何支持MCP协议的AI客户端都可以直接调用。
这个服务器提供了九个核心工具,分为三大类:
网页采集工具
scrape_webpage:抓取单个网页的内容。支持输出Markdown格式,也可以获取截图。非常适合提取文章内容或产品信息。crawl_webpages:从起始URL开始,自动发现并爬取多个链接的页面。你可以控制爬取深度和范围,获得结构化的内容集合。extract_structured_data:把杂乱的HTML转换成干净的JSON。你不需要写解析规则,AI会理解页面的结构并提取你需要的数据。search_with_bing:用Bing搜索引擎查询网页,返回搜索结果。这比通用搜索更可控,适合需要特定来源信息的场景。
AI浏览器代理工具
这是Hyperbrowser的特色功能。你可以用自然语言指令来控制浏览器:
browser_use_agent:轻量级的浏览器自动化代理,速度较快,适合常见的自动化任务。openai_computer_use_agent:使用OpenAI的CUA(Computer Using Agent)模型来操作浏览器。适合需要复杂推理的任务。claude_computer_use_agent:使用Anthropic的Claude Computer Use能力,擅长处理需要精确点击和文本输入的场景。
配置文件管理工具
create_profile:创建一个持久的浏览器配置文件。这个文件会保存你的登录状态、Cookies、本地存储等。下次使用时不需要重新登录。list_profiles:列出所有已创建的配置文件。delete_profile:删除一个配置文件。
这些工具组合在一起,等于给了AI一套完整的“浏览器操作手”。从简单的抓取到复杂的登录、搜索、点击、填表,都可以用自然语言完成。
二、核心优势
多种浏览器代理的灵活选择
这是hyperbrowser-mcp最突出的特点。不同的任务适合不同的AI模型。OpenAI的CUA模型擅长理解复杂的网页布局并进行推理;Anthropic的Claude Computer Use在精确的文本输入和点击方面表现很好;Browser Use则是一个轻量快速的选择。你可以根据任务复杂度、预算和速度要求来选择合适的代理。
持久化浏览会话
通过配置文件管理工具,你可以保存登录状态。这意味着你可以让AI登录一次你的社交媒体账号或者内部系统,然后在后续的任务中直接使用这个已认证的会话。这大大扩展了自动化的应用场景,比如定时发布内容、监控私信等。
采集与自动化的统一接口
通常网页抓取和浏览器自动化是两个分开的领域。抓取工具擅长提取数据,但处理登录、点击、滚动等交互很弱;而自动化工具擅长交互,但提取结构化数据的能力有限。hyperbrowser-mCP把这两者统一了。你可以用AI代理先登录并导航到目标页面,然后再用爬虫工具提取数据,整个流程无缝衔接。
多种部署方式
你可以通过npx直接运行,不需要本地安装。也可以在Claude Desktop、Cursor、Windsurf等客户端中配置。项目还提供了Dockerfile和Smithery支持,满足不同的部署需求。
基于Hyperbrowser的专业基础设施
Hyperbrowser作为专业的浏览器自动化平台,处理了反爬虫、代理轮换、浏览器指纹、会话管理等一系列复杂问题。你不需要自己维护浏览器实例或者处理验证码,这些都交给Hyperbrowser的云端基础设施。
三、适用场景
电商数据监控
你可以让AI代理定期登录电商后台,下载销售报告,或者抓取竞争对手的产品页面。例如:“每天早上9点,用Browser Use代理登录我的Shopify后台,导出前一天的订单列表,然后计算总销售额。”
社交媒体自动化
发布内容、回复评论、监测话题标签。利用持久化配置文件,AI可以保持登录状态。例如:“登录Twitter,搜索‘人工智能’标签,把最新的10条推文内容和作者信息抓取下来。”
表单填写与工作流自动化
很多企业内部系统还是基于Web表单的。你可以让AI代理自动填写出差报销单、休假申请、数据录入表格等。这比传统的RPA工具更灵活,因为AI能理解语义,即使表单有小变化也能适应。
内容聚合与监测
用crawl_webpages爬取多个新闻网站或博客,收集特定主题的文章。然后用extract_structured_data提取标题、作者、发布日期等信息,最后生成一个汇总报告。整个过程可以完全自动化。
UI自动化测试
虽然这不是专门的测试工具,但可以用AI代理来执行端到端的测试场景。例如:“登录测试环境,创建一个新用户,发布一条动态,然后验证动态是否出现在首页。”
四、安装教程
前置准备
在使用之前,你需要一个Hyperbrowser API密钥。访问Hyperbrowser官网注册账号,在控制台中获取API密钥。Hyperbrowser通常提供免费试用额度。
你需要一个支持MCP协议的AI客户端。本教程以Cursor和Claude Desktop为例进行说明。
通过npx直接运行(无需安装)
这是最快的方式。在终端中直接运行以下命令,把YOUR-HYPERBROWSER-API-KEY替换成你的真实密钥:
npx hyperbrowser-mcp YOUR-HYPERBROWSER-API-KEY服务器会启动并等待连接。这种方式适合测试和临时使用,但不适合持久化集成。
配置到Cursor
在项目的根目录下创建或编辑.cursor/mcp.json文件:
{
"mcpServers": {
"hyperbrowser": {
"command": "npx",
"args": ["-y", "hyperbrowser-mcp"],
"env": {
"HYPERBROWSER_API_KEY": "你的API密钥"
}
}
}
}保存后,重启Cursor或在命令面板中刷新MCP服务器。
配置到Claude Desktop
找到Claude Desktop的配置文件:
- macOS:
~/Library/Application Support/Claude/claude_desktop_config.json - Windows:
%APPDATA%\Claude\claude_desktop_config.json
添加以下配置:
{
"mcpServers": {
"hyperbrowser": {
"command": "npx",
"args": ["--yes", "hyperbrowser-mcp"],
"env": {
"HYPERBROWSER_API_KEY": "你的API密钥"
}
}
}
}保存后,完全退出并重启Claude Desktop。
配置到Windsurf
编辑./codeium/windsurf/model_config.json文件:
{
"mcpServers": {
"hyperbrowser": {
"command": "npx",
"args": ["-y", "hyperbrowser-mcp"],
"env": {
"HYPERBROWSER_API_KEY": "你的API密钥"
}
}
}
}通过Smithery一键安装(Claude Desktop)
如果你使用Claude Desktop,可以通过Smithery自动安装:
npx -y @smithery/cli install @hyperbrowserai/mcp --client claude这个命令会自动完成配置。
从源码构建(开发用途)
如果你想修改代码或者在没有网络的环境中使用,可以手动构建:
git clone git@github.com:hyperbrowserai/mcp.git hyperbrowser-mcp
cd hyperbrowser-mcp
npm install
npm run build构建完成后,你可以用node dist/server.js来启动服务器,并在配置中指向这个本地路径。
五、使用示例
配置完成后,你可以在AI助手中用自然语言来驱动这些工具了。
示例一:抓取单个网页并保存为Markdown
“Use the scrape_webpage tool to get the content of https://example.com/article in markdown format and save it to a file.”
AI会调用scrape_webpage,返回干净的Markdown文本。
示例二:用Bing搜索并提取结构化数据
“Search Bing for 'latest AI coding tools 2026' and then extract the title and URL of the top 5 results into a JSON array.”
这里会组合使用search_with_bing和extract_structured_data。AI会先搜索,然后从搜索结果页面中提取你需要的信息。
示例三:用Claude Computer Use代理自动填写表单
“Use the claude_computer_use_agent to go to https://example.com/contact, fill in the name field with 'John Doe', email with 'john@example.com', and message with 'Hello from AI', then click the submit button.”
Claude Computer Use模型会精确地找到这些输入框和按钮,并执行操作。
示例四:创建持久化配置文件和登录会话
“Create a new browser profile named 'my-twitter-session'. Then use the openai_computer_use_agent to log into Twitter using this profile. After login, scrape my home page timeline.”
首先调用create_profile,记录返回的配置文件ID。然后在调用代理工具时传入这个ID。以后再次使用这个配置文件时,登录状态会被保留。
示例五:爬取整个网站
“Start from https://docs.example.com, crawl up to 3 levels deep, but only follow links that are under the /docs/ path. Extract the title and first paragraph of each page, and return them as a list.”
crawl_webpages工具会处理链接发现、深度限制、路径过滤等逻辑。
六、常见问题
API Key无效或者认证失败
请检查环境变量HYPERBROWSER_API_KEY是否正确设置,注意不要有多余的空格。确保你的Hyperbrowser账户有足够的额度或者还在试用期内。另外,API Key是大小写敏感的,最好直接从控制台复制粘贴。
某个代理工具调用失败
不同的AI模型代理对任务的理解能力不同。如果openai_computer_use_agent失败了,可以尝试换claude_computer_use_agent,反之亦然。另外,确保你的指令足够清晰和具体。例如,“点击登录按钮”比“登录”更好。
持久化配置文件的会话丢失
配置文件保存的是浏览器的状态,包括Cookies和本地存储。但某些网站可能会对会话设置有效期(比如几天后强制重新登录)。你可以定期用同一个配置文件执行一次简单的操作来保持会话活跃。另外,确保配置文件的ID被正确传递给了代理工具。
爬虫工具没有返回预期的内容
检查crawl_webpages的配置参数。max_depth控制爬取深度,数值太小可能只爬了首页。allowed_domains和path_patterns可以限制爬取范围。另外,某些单页应用(SPA)可能需要等待JavaScript渲染,Hyperbrowser默认会处理,但可能需要增加超时设置。
遇到速率限制或配额不足
免费试用账号通常有调用次数和并发限制。如果你频繁调用,可能会触发限制。可以查看Hyperbrowser控制台的用量报告,或者考虑升级到付费套餐。同时,优化你的使用方式,比如合并多个请求,或者使用缓存。
在Windows上使用npx时出现路径问题
Windows的命令行对npx的解析有时会有问题。可以尝试使用完整路径:
"command": "C:\\Program Files\\nodejs\\npx.cmd"或者先打开命令提示符,运行npx hyperbrowser-mcp看看是否有错误输出。
七、总结
hyperbrowser-mcp是一个很有想法的项目。它没有局限于传统的网页采集,而是把浏览器自动化和AI模型的能力结合了起来。这反映了当前技术发展的一个趋势:从“告诉AI做什么”到“AI自己去浏览和操作”。
最让我印象深刻的是它提供的多种代理选择。不同的AI模型确实有不同的特长。OpenAI的CUA在复杂推理上更强,Claude Computer Use在精确模拟鼠标键盘上更准,而Browser Use则平衡了速度和能力。让开发者可以根据任务特点灵活选择,这是一个很好的设计。
持久化配置文件也是一个很实用的功能。很多自动化任务都需要登录状态,有了这个,就不用重复处理登录流程了。这也让定时任务和后台服务成为可能。
当然,这个服务的成本需要考量。Hyperbrowser不是免费的,而且不同的代理模型可能有不同的计费方式。但对于需要可靠浏览器自动化的企业和专业开发者来说,这个成本通常远低于自己维护一套浏览器集群的开销。
如果你是开发者,正在寻找一种让AI替你操作网页的方式,hyperbrowser-mCP是一个值得认真考虑的选择。它把复杂的基础设施封装成了简单的工具,让你能够专注于业务逻辑而不是浏览器的细节。
The crawl_webpages tool with depth control is perfect for documentation scraping. Saves me hours.
One downside: the free tier is quite limited. But for serious use, the paid plans are reasonable.
The extract_structured_data tool understood my prompt "get all product names and prices" perfectly.
I'm using this to automate my eBay listings. The AI agent fills in all the forms based on my data.
The Smithery install worked for me in one command. No config file editing needed.