你正在开发一个需要自动浏览网页的应用。你需要从某个电商网站抓取产品价格,从社交媒体获取最新讨论,还要自动填写几个表单。传统的做法是写一套Puppeteer或Playwright脚本,但这意味着要处理反爬虫、等待元素加载、解析动态内容等一系列问题。每次网站改版,脚本可能就失效了。

现在有一个更智能的解决方案。hyperbrowser-mcp是一个MCP服务器,它让你可以直接用AI来驱动浏览器。你只需要告诉AI你的目标,比如“去亚马逊搜索最新款的耳机,然后把前五个结果的价格和评分抓出来”,它就会调用Hyperbrowser的浏览器自动化能力,替你完成整个操作。而且你还可以选择不同的“浏览器代理”,比如OpenAI的CUA模型、Anthropic的Claude Computer Use,或者是轻量级的Browser Use。

项目基本信息

信息项详情
项目名称hyperbrowser-mcp
GitHub地址https://github.com/hyperbrowserai/mcp
项目描述A MCP server implementation for hyperbrowser
作者hyperbrowserai
开源协议MIT License
开源状态公开状态
LanguagesTypeScript 97.4%, JavaScript 1.6%, Other 1.0%
支持平台Windows / macOS / Linux
最后更新2026-03-28

一、项目介绍

hyperbrowser-mcp是Hyperbrowser平台的官方MCP服务器实现。Hyperbrowser本身是一个浏览器自动化基础设施,提供了网页抓取、结构化数据提取、爬虫以及多种AI驱动的浏览器代理能力。而这个MCP服务器则是这些能力的统一接口,让任何支持MCP协议的AI客户端都可以直接调用。

这个服务器提供了九个核心工具,分为三大类:

网页采集工具

  • scrape_webpage:抓取单个网页的内容。支持输出Markdown格式,也可以获取截图。非常适合提取文章内容或产品信息。
  • crawl_webpages:从起始URL开始,自动发现并爬取多个链接的页面。你可以控制爬取深度和范围,获得结构化的内容集合。
  • extract_structured_data:把杂乱的HTML转换成干净的JSON。你不需要写解析规则,AI会理解页面的结构并提取你需要的数据。
  • search_with_bing:用Bing搜索引擎查询网页,返回搜索结果。这比通用搜索更可控,适合需要特定来源信息的场景。

AI浏览器代理工具

这是Hyperbrowser的特色功能。你可以用自然语言指令来控制浏览器:

  • browser_use_agent:轻量级的浏览器自动化代理,速度较快,适合常见的自动化任务。
  • openai_computer_use_agent:使用OpenAI的CUA(Computer Using Agent)模型来操作浏览器。适合需要复杂推理的任务。
  • claude_computer_use_agent:使用Anthropic的Claude Computer Use能力,擅长处理需要精确点击和文本输入的场景。

配置文件管理工具

  • create_profile:创建一个持久的浏览器配置文件。这个文件会保存你的登录状态、Cookies、本地存储等。下次使用时不需要重新登录。
  • list_profiles:列出所有已创建的配置文件。
  • delete_profile:删除一个配置文件。

这些工具组合在一起,等于给了AI一套完整的“浏览器操作手”。从简单的抓取到复杂的登录、搜索、点击、填表,都可以用自然语言完成。

二、核心优势

多种浏览器代理的灵活选择

这是hyperbrowser-mcp最突出的特点。不同的任务适合不同的AI模型。OpenAI的CUA模型擅长理解复杂的网页布局并进行推理;Anthropic的Claude Computer Use在精确的文本输入和点击方面表现很好;Browser Use则是一个轻量快速的选择。你可以根据任务复杂度、预算和速度要求来选择合适的代理。

持久化浏览会话

通过配置文件管理工具,你可以保存登录状态。这意味着你可以让AI登录一次你的社交媒体账号或者内部系统,然后在后续的任务中直接使用这个已认证的会话。这大大扩展了自动化的应用场景,比如定时发布内容、监控私信等。

采集与自动化的统一接口

通常网页抓取和浏览器自动化是两个分开的领域。抓取工具擅长提取数据,但处理登录、点击、滚动等交互很弱;而自动化工具擅长交互,但提取结构化数据的能力有限。hyperbrowser-mCP把这两者统一了。你可以用AI代理先登录并导航到目标页面,然后再用爬虫工具提取数据,整个流程无缝衔接。

多种部署方式

你可以通过npx直接运行,不需要本地安装。也可以在Claude Desktop、Cursor、Windsurf等客户端中配置。项目还提供了Dockerfile和Smithery支持,满足不同的部署需求。

基于Hyperbrowser的专业基础设施

Hyperbrowser作为专业的浏览器自动化平台,处理了反爬虫、代理轮换、浏览器指纹、会话管理等一系列复杂问题。你不需要自己维护浏览器实例或者处理验证码,这些都交给Hyperbrowser的云端基础设施。

三、适用场景

电商数据监控

你可以让AI代理定期登录电商后台,下载销售报告,或者抓取竞争对手的产品页面。例如:“每天早上9点,用Browser Use代理登录我的Shopify后台,导出前一天的订单列表,然后计算总销售额。”

社交媒体自动化

发布内容、回复评论、监测话题标签。利用持久化配置文件,AI可以保持登录状态。例如:“登录Twitter,搜索‘人工智能’标签,把最新的10条推文内容和作者信息抓取下来。”

表单填写与工作流自动化

很多企业内部系统还是基于Web表单的。你可以让AI代理自动填写出差报销单、休假申请、数据录入表格等。这比传统的RPA工具更灵活,因为AI能理解语义,即使表单有小变化也能适应。

内容聚合与监测

crawl_webpages爬取多个新闻网站或博客,收集特定主题的文章。然后用extract_structured_data提取标题、作者、发布日期等信息,最后生成一个汇总报告。整个过程可以完全自动化。

UI自动化测试

虽然这不是专门的测试工具,但可以用AI代理来执行端到端的测试场景。例如:“登录测试环境,创建一个新用户,发布一条动态,然后验证动态是否出现在首页。”

四、安装教程

前置准备

在使用之前,你需要一个Hyperbrowser API密钥。访问Hyperbrowser官网注册账号,在控制台中获取API密钥。Hyperbrowser通常提供免费试用额度。

你需要一个支持MCP协议的AI客户端。本教程以Cursor和Claude Desktop为例进行说明。

通过npx直接运行(无需安装)

这是最快的方式。在终端中直接运行以下命令,把YOUR-HYPERBROWSER-API-KEY替换成你的真实密钥:

npx hyperbrowser-mcp YOUR-HYPERBROWSER-API-KEY

服务器会启动并等待连接。这种方式适合测试和临时使用,但不适合持久化集成。

配置到Cursor

在项目的根目录下创建或编辑.cursor/mcp.json文件:

{
  "mcpServers": {
    "hyperbrowser": {
      "command": "npx",
      "args": ["-y", "hyperbrowser-mcp"],
      "env": {
        "HYPERBROWSER_API_KEY": "你的API密钥"
      }
    }
  }
}

保存后,重启Cursor或在命令面板中刷新MCP服务器。

配置到Claude Desktop

找到Claude Desktop的配置文件:

  • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
  • Windows: %APPDATA%\Claude\claude_desktop_config.json

添加以下配置:

{
  "mcpServers": {
    "hyperbrowser": {
      "command": "npx",
      "args": ["--yes", "hyperbrowser-mcp"],
      "env": {
        "HYPERBROWSER_API_KEY": "你的API密钥"
      }
    }
  }
}

保存后,完全退出并重启Claude Desktop。

配置到Windsurf

编辑./codeium/windsurf/model_config.json文件:

{
  "mcpServers": {
    "hyperbrowser": {
      "command": "npx",
      "args": ["-y", "hyperbrowser-mcp"],
      "env": {
        "HYPERBROWSER_API_KEY": "你的API密钥"
      }
    }
  }
}

通过Smithery一键安装(Claude Desktop)

如果你使用Claude Desktop,可以通过Smithery自动安装:

npx -y @smithery/cli install @hyperbrowserai/mcp --client claude

这个命令会自动完成配置。

从源码构建(开发用途)

如果你想修改代码或者在没有网络的环境中使用,可以手动构建:

git clone git@github.com:hyperbrowserai/mcp.git hyperbrowser-mcp
cd hyperbrowser-mcp
npm install
npm run build

构建完成后,你可以用node dist/server.js来启动服务器,并在配置中指向这个本地路径。

五、使用示例

配置完成后,你可以在AI助手中用自然语言来驱动这些工具了。

示例一:抓取单个网页并保存为Markdown

“Use the scrape_webpage tool to get the content of https://example.com/article in markdown format and save it to a file.”

AI会调用scrape_webpage,返回干净的Markdown文本。

示例二:用Bing搜索并提取结构化数据

“Search Bing for 'latest AI coding tools 2026' and then extract the title and URL of the top 5 results into a JSON array.”

这里会组合使用search_with_bingextract_structured_data。AI会先搜索,然后从搜索结果页面中提取你需要的信息。

示例三:用Claude Computer Use代理自动填写表单

“Use the claude_computer_use_agent to go to https://example.com/contact, fill in the name field with 'John Doe', email with 'john@example.com', and message with 'Hello from AI', then click the submit button.”

Claude Computer Use模型会精确地找到这些输入框和按钮,并执行操作。

示例四:创建持久化配置文件和登录会话

“Create a new browser profile named 'my-twitter-session'. Then use the openai_computer_use_agent to log into Twitter using this profile. After login, scrape my home page timeline.”

首先调用create_profile,记录返回的配置文件ID。然后在调用代理工具时传入这个ID。以后再次使用这个配置文件时,登录状态会被保留。

示例五:爬取整个网站

“Start from https://docs.example.com, crawl up to 3 levels deep, but only follow links that are under the /docs/ path. Extract the title and first paragraph of each page, and return them as a list.”

crawl_webpages工具会处理链接发现、深度限制、路径过滤等逻辑。

六、常见问题

API Key无效或者认证失败

请检查环境变量HYPERBROWSER_API_KEY是否正确设置,注意不要有多余的空格。确保你的Hyperbrowser账户有足够的额度或者还在试用期内。另外,API Key是大小写敏感的,最好直接从控制台复制粘贴。

某个代理工具调用失败

不同的AI模型代理对任务的理解能力不同。如果openai_computer_use_agent失败了,可以尝试换claude_computer_use_agent,反之亦然。另外,确保你的指令足够清晰和具体。例如,“点击登录按钮”比“登录”更好。

持久化配置文件的会话丢失

配置文件保存的是浏览器的状态,包括Cookies和本地存储。但某些网站可能会对会话设置有效期(比如几天后强制重新登录)。你可以定期用同一个配置文件执行一次简单的操作来保持会话活跃。另外,确保配置文件的ID被正确传递给了代理工具。

爬虫工具没有返回预期的内容

检查crawl_webpages的配置参数。max_depth控制爬取深度,数值太小可能只爬了首页。allowed_domainspath_patterns可以限制爬取范围。另外,某些单页应用(SPA)可能需要等待JavaScript渲染,Hyperbrowser默认会处理,但可能需要增加超时设置。

遇到速率限制或配额不足

免费试用账号通常有调用次数和并发限制。如果你频繁调用,可能会触发限制。可以查看Hyperbrowser控制台的用量报告,或者考虑升级到付费套餐。同时,优化你的使用方式,比如合并多个请求,或者使用缓存。

在Windows上使用npx时出现路径问题

Windows的命令行对npx的解析有时会有问题。可以尝试使用完整路径:

"command": "C:\\Program Files\\nodejs\\npx.cmd"

或者先打开命令提示符,运行npx hyperbrowser-mcp看看是否有错误输出。

七、总结

hyperbrowser-mcp是一个很有想法的项目。它没有局限于传统的网页采集,而是把浏览器自动化和AI模型的能力结合了起来。这反映了当前技术发展的一个趋势:从“告诉AI做什么”到“AI自己去浏览和操作”。

最让我印象深刻的是它提供的多种代理选择。不同的AI模型确实有不同的特长。OpenAI的CUA在复杂推理上更强,Claude Computer Use在精确模拟鼠标键盘上更准,而Browser Use则平衡了速度和能力。让开发者可以根据任务特点灵活选择,这是一个很好的设计。

持久化配置文件也是一个很实用的功能。很多自动化任务都需要登录状态,有了这个,就不用重复处理登录流程了。这也让定时任务和后台服务成为可能。

当然,这个服务的成本需要考量。Hyperbrowser不是免费的,而且不同的代理模型可能有不同的计费方式。但对于需要可靠浏览器自动化的企业和专业开发者来说,这个成本通常远低于自己维护一套浏览器集群的开销。

如果你是开发者,正在寻找一种让AI替你操作网页的方式,hyperbrowser-mCP是一个值得认真考虑的选择。它把复杂的基础设施封装成了简单的工具,让你能够专注于业务逻辑而不是浏览器的细节。

标签: 内容抓取

已有 33 条评论

    1. StephenPerez StephenPerez

      The resource discovery is a nice touch. Clients can find out about hyperbrowser capabilities dynamically.

    2. MelissaRoberts MelissaRoberts

      I'm a QA engineer and I'm using this to generate end-to-end test scripts. The AI writes and executes them.

    3. AndrewCollins AndrewCollins

      The combination of scraping and automation in one server is what sets this apart from others.