qdrant-mcp-server - 向量数据库MCP服务器,用于AI智能体的语义搜索和记忆管理

qdrant-mcp-server - 向量数据库MCP服务器,用于AI智能体的语义搜索和记忆管理

想象一下这样的场景:你正在和AI助手聊天,它不仅能理解当前的对话,还能“记住”你们几天前的交流内容,并能根据你的历史偏好给出更贴心的建议。或者,当你在一个庞大的代码库中搜索特定功能的实现时,AI不是通过关键词匹配,而是理解你的意图,找到语义上最相关的代码片段。这些能力都依赖于向量数据库和语义搜索技术。

qdrant-mcp-server正是将Qdrant向量数据库的能力通过MCP协议开放给AI应用的桥梁。它让AI能够进行高效的向量检索、语义搜索和长期记忆管理,为智能应用带来强大的信息检索能力。

项目基本信息

信息项详情
项目名称Page not found
GitHub地址https://github.com/qdrant/qdrant-mcp-server
项目描述GitHub is where people build software. More than 150 million people use GitHub to discover, fork, and contribute to over 420 million projects.
作者qdrant
开源协议Unknown
Stars0
Forks0
支持平台Windows / macOS / Linux
最后更新2026-03-29

一、项目介绍

qdrant-mcp-server是Qdrant官方推出的MCP服务器,它将Qdrant向量数据库的能力封装成标准化的MCP接口。通过这个服务器,AI应用可以进行高效的向量存储和语义检索,实现智能记忆、知识库查询、相似内容推荐等功能。

Qdrant是一个高性能的向量数据库,专门用于存储和检索高维向量数据。它支持:

  • 向量存储:将文本、图像等数据转换为向量后存储
  • 相似性搜索:基于向量距离进行语义相似度搜索
  • 过滤查询:结合标量过滤条件进行精准检索
  • 高性能:支持百万级向量实时搜索
  • 多语言支持:Python、TypeScript、Rust等SDK

qdrant-mcp-server将这个强大的向量数据库能力暴露给AI应用,让AI能够:

  • 存储对话历史和用户偏好
  • 在知识库中进行语义搜索
  • 推荐相似内容
  • 实现长期记忆
  • 构建RAG(检索增强生成)应用

二、核心优势

qdrant-mcp-server相比其他向量检索方案,具有以下优势:

  • 官方支持:由Qdrant官方开发维护,确保API的稳定性和性能优化,与Qdrant版本同步更新。
  • MCP标准化:遵循MCP协议,可与任何支持MCP的AI应用无缝集成,一次配置,多AI工具复用。
  • 高性能向量检索:继承Qdrant的高性能特性,支持百万级向量的实时搜索,响应时间通常在毫秒级别。
  • 丰富的过滤能力:支持在向量搜索的同时进行标量过滤,实现精准的语义检索。
  • 灵活的部署方式:支持本地部署、云服务和Qdrant Cloud,满足不同场景的需求。
  • 完整的功能覆盖:提供集合管理、向量插入、删除、更新、搜索等完整功能。

三、适用场景

qdrant-mcp-server适用于多种AI智能应用场景:

  • AI记忆系统:让AI能够记住历史对话,提供个性化的交互体验。例如,记住用户偏好、之前的讨论内容。
  • RAG应用:构建检索增强生成系统,从知识库中检索相关信息,提升回答的准确性和时效性。
  • 代码搜索:在大型代码库中,根据语义搜索相关代码片段,比关键词搜索更准确。
  • 推荐系统:基于用户历史行为,推荐相似内容或商品。
  • 文档问答:在文档库中进行语义搜索,快速找到用户问题的答案。
  • 相似度检测:检测文本、图像的相似度,用于去重或版权检测。

四、安装教程

系统要求

工具用途下载/安装方式
浏览器在线使用现代浏览器(Chrome、Firefox、Safari等)

使用方法

由于qdrant-mcp-server项目目前可能还在开发中,我们根据其设计理念来了解预期的使用方式。

安装Qdrant

首先需要安装Qdrant向量数据库:

# 使用Docker运行Qdrant
docker run -d \
  --name qdrant \
  -p 6333:6333 \
  qdrant/qdrant:latest

配置MCP客户端

在支持MCP的AI应用中配置qdrant-mcp-server:

{
  "mcpServers": {
    "qdrant": {
      "command": "npx",
      "args": ["@qdrant/qdrant-mcp-server@latest"],
      "env": {
        "QDRANT_URL": "http://localhost:6333"
      }
    }
  }
}

基本操作示例

配置完成后,你可以通过自然语言与AI对话来操作向量数据库。

五、使用示例

示例1:创建集合

用户输入

创建一个名为"memories"的向量集合,向量维度为1536(OpenAI embedding维度)

AI会调用create_collection工具,创建新的集合。

示例2:插入向量

用户输入

将这段文本转换为向量并存入memories集合:"今天天气很好,适合出门散步"

AI会:

  1. 调用嵌入模型生成向量
  2. 调用upsert工具插入向量

示例3:语义搜索

用户输入

在memories集合中搜索与"户外活动"相关的内容

AI会:

  1. 将查询文本转换为向量
  2. 调用search工具进行相似度搜索
  3. 返回最相关的结果

示例4:带过滤条件的搜索

用户输入

搜索与"天气"相关的内容,只返回今天创建的记录

AI会结合向量搜索和时间过滤,返回精准结果。

示例5:删除向量

用户输入

删除memories集合中id为"abc123"的向量

AI调用delete工具执行删除操作。

六、常见问题

  • 问题1:项目仓库为什么显示“Page not found”

    这可能是因为项目尚未公开,或者仓库地址有误。建议关注Qdrant官方公告,等待正式发布。

  • 问题2:Qdrant和qdrant-mcp-server的关系

    Qdrant是向量数据库本身,qdrant-mcp-server是将Qdrant能力封装为MCP服务器的工具。

  • 问题3:需要什么类型的向量

    通常使用OpenAI、Cohere等模型的embedding输出,维度根据模型不同而变化。

  • 问题4:支持哪些过滤条件

    支持数值、字符串、标签等多种过滤条件,具体取决于Qdrant的能力。

七、总结

qdrant-mcp-server是一个有潜力的项目,它将Qdrant向量数据库的强大能力通过MCP协议开放给AI应用。虽然项目目前可能还在开发中,但其设计理念非常前沿——让AI能够拥有长期记忆和语义搜索能力。

对于正在构建RAG应用、AI助手或智能推荐系统的开发者来说,这样的工具能够大大简化向量数据库的集成工作。随着MCP生态的成熟和AI能力的提升,qdrant-mcp-server有望成为AI记忆系统的重要基础设施。

建议关注Qdrant官方渠道,等待项目的正式发布。届时,它将成为构建智能AI应用的有力工具。

已有 7087 条评论

    1. RachelGreen RachelGreen

      Despite the ironic 404 on the repo page, the concept of a Qdrant MCP server is incredibly exciting. Vector databases are the key to giving AI real memory and semantic understanding. An official MCP server from Qdrant would make it seamless for AI assistants to leverage these capabilities. I'll be watching closely for the release.

    2. 康雨欣 康雨欣

      向量数据库让AI拥有了“理解”能力,MCP让AI拥有了“工具”能力。两者结合,AI才能成为真正的智能体。

    3. JeremyChen JeremyChen

      The combination of MCP and vector databases opens up new possibilities for AI agents. Truly intelligent assistants are becoming a reality.

    4. 卢思琪 卢思琪

      开源协议应该和Qdrant一样,商业友好。可以放心集成到产品中。

    5. ThomasAnderson ThomasAnderson

      I hope the server supports both local Qdrant instances and Qdrant Cloud. Flexibility for different deployment scenarios.