你是否曾经希望AI的回答不仅能基于训练数据,还能实时整合来自谷歌、必应,甚至公司内部知识库的最新信息?如果这个AI还能同时利用学术搜索引擎arXiv来辅助你的研究,听起来是不是像一个理想的研究助理?这正是higress-ai-search-mcp-server所要实现的目标。
这是一个基于模型上下文协议的服务器,它通过Higress AI搜索功能,为AI模型提供实时的互联网搜索、学术论文检索和内部知识库查询能力。它不是一个简单的搜索引擎调用工具,而是一个将多种信息源与AI生成能力深度集成的桥梁。
项目基本信息
| 信息项 | 详情 |
|---|---|
| 项目名称 | higress-ai-search-mcp-server |
| GitHub地址 | https://github.com/cr7258/higress-ai-search-mcp-server |
| 项目描述 | An MCP server enhances AI responses with real-time search results via Higress ai-search. |
| 作者 | cr7258 |
| 开源协议 | Apache License 2.0 |
| 开源状态 | 公开状态 |
| Languages | Python |
| 支持平台 | Windows / macOS / Linux |
| 最后更新 | 2025-08-25 |
一、项目介绍
higress-ai-search-mcp-server的核心是一个专门设计的MCP工具,它允许AI模型通过Higress平台的AI搜索插件来获取信息。Higress本身是一个云原生网关,其AI搜索功能整合了多种搜索引擎,并提供了统一的接口。这个服务器就是连接MCP客户端(如Claude Desktop)和Higress服务之间的桥梁。
当你在与AI对话时请求实时信息或特定知识,这个服务器会接手处理。它会将你的请求转发给配置好的Higress服务。Higress服务内部集成了AI搜索插件,能够智能地调用不同的数据源——比如通用的谷歌、必应搜索,专注于学术论文的arXiv,甚至是你自定义的内部知识库——来获取相关信息。然后,Higress服务自身会调用一个大型语言模型(如qwen-turbo)来整合这些信息,生成一个融合了实时搜索结果和AI推理的回答,最后通过服务器返回给你。
项目的架构相对清晰。它通过环境变量进行配置,你可以指定Higress服务的地址、使用的大语言模型以及内部知识库的描述。安装方式也很灵活,既可以通过uvx直接从PyPI安装,也可以克隆源码进行本地开发。
二、核心优势
统一的多源信息入口:这是该项目最核心的卖点。它将通用网页搜索、学术搜索和内部知识库搜索整合到了一个统一的工具中。你的AI不再需要分别调用谷歌搜索、arXiv搜索等多个不同的工具,只需要通过这一个MCP服务器,就能智能地获取最合适的信息来源。这大大简化了AI的决策过程,也让用户的使用体验更加流畅。
利用成熟的Higress生态:项目本身不重复发明轮子,而是巧妙地将Higress这一企业级网关的能力引入MCP世界。Higress的AI搜索插件已经处理了与不同搜索引擎对接、结果聚合等复杂逻辑,保证了搜索质量和稳定性。用户如果已经熟悉或正在使用Higress,可以非常平滑地扩展其能力。
支持内部知识库集成:除了公网搜索,它还特别提到了对“内部知识库搜索”的支持。这对于企业用户来说是一个极其有价值的功能。你可以将员工手册、公司政策、内部技术文档等配置为知识库,然后让AI基于这些内部信息回答问题,生成真正私域、精准的答案。
灵活的部署与安装:项目提供了两种安装路径。对于希望快速尝试的用户,可以使用uvx命令一键运行,无需下载代码。对于需要定制或调试的开发者,克隆源码并使用uv进行本地开发也同样方便。这种设计兼顾了易用性和灵活性。
三、适用场景
场景一:企业内部智能问答机器人。这是最能发挥其内部知识库搜索能力的场景。想象一下,将公司的产品文档、故障处理手册、内部Wiki配置为知识库。新员工可以直接问AI:“我们的报销流程是什么?”或者“如何申请服务器权限?”AI将基于内部文档给出标准、准确的答案,极大地提升内部支持效率。
场景二:需要比对多源信息的市场或技术调研。当你在做竞品分析或技术选型时,可以问:“请帮我搜索谷歌、必应和arXiv,找一下关于‘WebAssembly在边缘计算领域的最新应用案例’,并总结共性与差异。”AI将整合来自不同搜索引擎和学术论文的信息,为你提供一份视角全面的报告。
场景三:注重隐私和内部数据保护的组织。由于搜索和知识库检索都可以在内部Higress服务上完成,你可以完全掌控数据的流向。敏感的公司信息不会经过外部的第三方搜索API,确保了数据隐私和安全。对于金融、医疗等强监管行业,这是一个巨大的优势。
场景四:个人学习和研究助手。对于研究生或科研人员,将arXiv学术搜索与通用搜索结合非常有用。你可以让AI:“搜索arXiv上关于‘大语言模型推理优化’的最新论文,同时在谷歌上找找相关的技术博客,然后告诉我目前的主要研究方向。”这能帮你快速建立起对一个新领域的认知。
四、安装教程
在开始之前,你需要明确一点:这个服务器本身不执行搜索,它需要一个运行中的、配置了AI搜索插件的Higress服务。因此,安装分为两个部分。
前置条件:部署和配置Higress
这部分相对高级,详细步骤请参考Higress官方文档。简单来说,你需要:
- 部署Higress网关。
- 配置
ai-search插件,设置好你想使用的搜索引擎(如Google、Bing、Arxiv)。 - 配置
ai-proxy插件,指向你的大语言模型API(例如阿里云的qwen-turbo),因为Higress需要调用LLM来整合搜索结果。
确保Higress服务启动后,你能通过一个URL(例如http://localhost:8080/v1/chat/completions)访问它。
第一步:安装UV包管理器
这个项目推荐使用uv来运行。如果你没有安装uv,可以按以下方式安装:
macOS 或 Linux:
curl -LsSf https://astral.sh/uv/install.sh | shWindows:
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"安装完成后,重新启动你的终端。
第二步:配置你的MCP客户端
我们以Claude Desktop为例。找到其配置文件:
- macOS:
~/Library/Application Support/Claude/claude_desktop_config.json - Windows:
%APPDATA%\Claude\claude_desktop_config.json
使用文本编辑器打开该文件,添加以下配置(请替换其中的实际值):
{
"mcpServers": {
"higress-ai-search": {
"command": "uvx",
"args": ["higress-ai-search-mcp-server"],
"env": {
"HIGRESS_URL": "http://你的Higress服务地址:端口/v1/chat/completions",
"MODEL": "qwen-turbo",
"INTERNAL_KNOWLEDGE_BASES": "公司员工手册, 产品常见问题文档"
}
}
}
}HIGRESS_URL需要指向你Higress服务的聊天补全接口。MODEL是你希望Higress调用的LLM名称(需与ai-proxy插件中配置的一致)。INTERNAL_KNOWLEDGE_BASES是一个可选的描述字段,告诉AI有哪些内部知识库可用。
第三步:重启客户端并验证
保存配置文件,然后完全退出你的MCP客户端并重新启动。在对话中,你可以尝试提问:“请帮我搜索一下‘Higress AI Search是什么?’”。
如果一切配置正确,你的AI应该会调用工具,并返回一个结合了实时搜索结果的答案。
五、使用示例
配置完成后,你就可以在对话中利用这个强大的搜索工具了。关键在于,你的AI会知道何时以及如何使用它。
示例一:通用网络搜索
提示词:“搜索一下过去一周关于‘云原生网关’的最新新闻和技术文章。”
AI会调用工具,Higress服务将使用配置好的搜索引擎(如Google或Bing)进行搜索,并由LLM整合出答案。
示例二:学术搜索
提示词:“在arXiv上搜索关于‘Diffusion模型在图像生成中的最新进展’的论文,帮我找出三篇引用最高的。”
AI会执行搜索,并从学术角度返回结果。
示例三:混合搜索与内部知识库
提示词:“根据我们的内部知识库,公司对于远程办公的网络要求是什么?同时在网上搜索一下通用的最佳实践,做一个对比。”
这展示了同时利用内部和外部信息源的能力,AI会整合两者给出一个全面的回答。
示例四:复杂的研究任务
提示词:“请帮我完成一个关于‘2025年服务网格技术趋势’的快速研究。搜索互联网上的博客和新闻,并在arXiv上找相关的学术论文,最后总结一下关键技术和争议点。”
这是一个多角度的研究请求,AI会利用服务器的能力,从多个信息源为你整合信息。
六、常见问题
问题一:服务器提示连接失败或超时。
解决方案:首先,请确认你的Higress服务已经正常运行,并且HIGRESS_URL配置的地址和端口是正确的。你可以尝试在浏览器中直接访问该URL,看是否返回内容。其次,检查网络防火墙设置,确保你的MCP客户端所在机器能够访问Higress服务。
问题二:搜索返回的结果似乎没有经过整合,看起来像原始数据。
解决方案:higress-ai-search-mcp服务器只负责调用Higress的API,而整合搜索结果并生成自然语言回复是Higress AI搜索插件的能力。请确认你在Higress中正确配置了ai-proxy插件,并且指定了有效的LLM模型(如qwen-turbo)。如果Higress只执行搜索但没有调用LLM进行总结,就会出现原始数据。
问题三:内部知识库搜索不生效。
解决方案:INTERNAL_KNOWLEDGE_BASES环境变量只是一个描述,让AI知道有内部知识库可用。真正的内部知识库配置需要在Higress的ai-search插件中进行。你需要将你的文档、数据库等内容以向量数据库的形式接入Higress。请查阅Higress官方文档关于内部知识库配置的详细步骤。
问题四:我该如何选择合适的MODEL参数?
解决方案:MODEL参数需要与你在Higress ai-proxy插件中配置的大语言模型名称完全一致。你可以选择任何兼容OpenAI API格式的模型,例如qwen-turbo、gpt-3.5-turbo等。选择不同模型会影响最终回答的质量、速度和成本。建议从速度快、成本低的模型开始尝试。
问题五:这个服务器似乎无法独立运行,必须依赖Higress。
解决方案:是的,这正是项目的设计理念。它是一个功能特定(专注于搜索增强)的“后端”,依赖Higress这个功能强大的“中间件”来提供搜索和LLM调用的核心能力。如果你需要一个独立的、自包含的搜索MCP服务器,这个项目不适合你。但如果你正在或准备使用Higress,它能完美地扩展其价值。
七、总结
higress-ai-search-mcp-server是一个定位明确、设计巧妙的项目。它不是面向普通个人用户的“即插即用”式工具,而是深度结合Higress企业级网关生态的解决方案。它的价值在于,为那些已经或计划采用Higress作为云原生基础设施的组织或个人,提供了一条将AI能力与实时、多源信息检索相结合的捷径。
这个项目的最大优点在于其整合性。它用一个统一的接口,打通了公网搜索、学术搜索和内部知识库,这在实际的企业应用场景中非常有吸引力。同时,它对数据隐私和内部知识利用的侧重,也符合现代企业对AI应用的安全要求。
当然,它的门槛也相对较高。你需要先理解并部署Higress及其复杂的插件配置。对于只想简单测试联网搜索的新手来说,这个项目可能不是首选。但对于寻求构建私有、安全、智能信息系统的开发者或企业,它提供了一个非常优雅的参考实现。
如果你是Higress的用户,或者正在寻找一个能将内部知识库与AI搜索深度集成的方案,那么非常值得深入研究这个项目。
I like that the project uses `uv` for installation. It's fast and modern. The setup steps are copy-paste ready.
这个服务器是Higress AI能力的最佳展示。以前Higress的能力都在网关内部,现在可以暴露给任何MCP客户端了。
如果能提供一个Docker Compose文件,一键启动Higress和这个服务器,那就完美了。
The academic search feature is a standout for me. It turns my AI into a research assistant that can read papers.
对于没有Higress背景的人来说,这个教程还是有点难。但文章本身已经讲得很清楚了。