你是否曾经想了解某位技术大咖在行业内的全部贡献?比如一位开发者发表过多少场演讲、写过多少篇博客、制作过多少个视频,以及这些内容的具体细节?手动搜索不仅耗时,而且很容易遗漏。如果能让 AI 助手直接帮你查询这些信息,那就太方便了。
这就是 erickwendel-contributions-mcp 项目的价值所在。它是一个基于模型上下文协议的服务器,专门用于查询 Erick Wendel(一位知名的巴西籍技术讲师、Node.js 专家)在不同平台上的贡献。通过它,你可以用自然语言向 AI 询问关于他演讲、博客文章和视频的详细信息。
项目基本信息
| 信息项 | 详情 |
|---|---|
| 项目名称 | erickwendel-contributions-mcp |
| GitHub地址 | https://github.com/ErickWendel/erickwendel-contributions-mcp |
| 项目描述 | A Model Context Protocol (MCP) server that provides tools to query Erick Wendel's contributions across different platforms |
| 作者 | ErickWendel |
| 开源协议 | MIT License |
| 开源状态 | 公开状态 |
| Languages | TypeScript, JavaScript |
| 支持平台 | Windows / macOS / Linux / Web |
| 最后更新 | 2026-04-24 |
一、项目介绍
erickwendel-contributions-mcp 是一个独特的 MCP 服务器:它的数据源是特定个人的公开贡献。Erick Wendel 本人创建了这个项目,用来展示他自己在技术社区的产出——演讲、博客文章和视频讲座。通过这个服务器,AI 助手能够直接查询这些内容,并按不同维度进行过滤和统计。
该项目充分利用了 MCP 协议的多种能力,提供了工具、提示和资源三种类型的接口。例如,你可以:
- 使用
get-talks工具获取演讲列表,并按语言、国家、年份等过滤。 - 使用
get-posts工具查询博客文章,按语言或平台过滤。 - 使用
get-videos工具查找视频,按标题或语言搜索。 - 使用
summarize-activity提示让 AI 生成年度活动总结。 - 访问
erickwendel://statistics资源获取全局统计信息。
该项目使用 TypeScript 编写,并依赖一个内部的 GraphQL API 作为数据源。它被发布为 npm 包 @erickwendel/contributions-mcp,可以直接通过 npx 运行,无需克隆代码。
二、核心优势
展示了 MCP 协议的完整能力
这个项目不仅仅是一个简单的“工具”服务器。它同时实现了 Tools、Prompts 和 Resources 三种 MCP 核心概念,是学习 MCP 高级用法的优秀范例。
数据集中且结构化
它把一个真实技术创作者的全部公开内容聚合到了一个可查询的接口中。这体现了 MCP 的潜力:任何人的公开产出都可以被封装成可对话的知识库。
极简的集成方式
你不需要克隆代码或安装依赖。只需在 MCP 客户端配置中添加一行 "command": "npx", "args": ["-y", "@erickwendel/contributions-mcp"] 即可使用。
支持丰富的过滤和统计
查询不仅返回原始数据,还可以返回按语言、国家、城市等分组的统计信息。例如“按国家分组的演讲数量”或“按年份统计的活动总量”。
面向 Agent 模式设计
该项目特别提到了与 Cursor Agent 模式的兼容性,并为 MCPHost(一个免费的、支持 Ollama 的 MCP 客户端)提供了配置示例。
三、适用场景
学习 MCP 服务器的高级设计
如果你想理解如何在一个 MCP 服务器中同时提供工具、提示和资源,这个项目的源码是绝佳的教材。其代码结构清晰,功能完整。
为特定领域的知识构建查询接口
这个项目展示了一种模式:你可以为自己的博客、演讲集、视频频道等构建类似的 MCP 服务器,让 AI 助手能够直接“了解”你的工作。
快速了解一位技术专家的知识领域
如果你正在考虑邀请某位讲师,或者想快速了解 Erick Wendel 在哪个技术领域(如 WebXR、Node.js)有最多的产出,直接问 AI 即可。
演示 MCP 在个人品牌建设中的应用
对于内容创作者来说,提供一个 MCP 服务器是让人工智能助手能“了解你”的绝佳方式。这可能会成为未来个人简历或作品集的一种新形式。
在免费环境下体验 MCP
项目文档提供了使用 MCPHost + Ollama 的免费配置方案,让没有 Claude Desktop 或 Cursor 的人也能体验 MCP 的魅力。
四、安装教程
使用 erickwendel-contributions-mcp 最简单的方式是通过 npx 直接运行,无需克隆仓库。
准备工作
确保你的 Node.js 版本为 v20 或更高。你可以通过 node -v 命令检查。
配置 Claude Desktop
对于 Claude Desktop(macOS),编辑配置文件 ~/Library/Application Support/Claude/claude_desktop_config.json。对于 Cursor,编辑 ~/.cursor/mcp.json。如果文件不存在,请创建一个。
添加以下内容:
{
"mcpServers": {
"erickwendel-contributions": {
"command": "npx",
"args": ["-y", "@erickwendel/contributions-mcp"]
}
}
}保存文件后,完全重启 Claude Desktop 或 Cursor。
验证安装(可选)
如果你想测试服务器是否能正常工作,可以运行 MCP Inspector:
npx @modelcontextprotocol/inspector然后在 Inspector 中按提示连接。
使用免费替代方案(MCPHost + Ollama)
如果你没有 Claude Desktop 或 Cursor 的访问权限,可以按照以下步骤使用完全免费的方案:
- 安装 MCPHost:
go install github.com/mark3labs/mcphost@latest- 拉取一个 Ollama 模型(例如 llama3.2):
ollama pull llama3.2- 创建一个配置文件
mcp.json:
{
"mcpServers": {
"erickwendel-contributions": {
"command": "npx",
"args": ["-y", "@erickwendel/contributions-mcp"]
}
}
}- 运行:
mcphost --config ./mcp.json -m ollama:llama3.2现在你就可以在终端中与模型对话,并查询数据了。
五、使用示例
以下是在配置好服务器后,可以在 AI 客户端中使用的一些自然语言查询示例。
示例1:获取演讲数量统计
用户输入:Erick Wendel 在 2023 年做了多少场演讲?
AI 会调用 get-talks 工具,可能加上 year: 2023 的过滤条件,然后回答:“在 2023 年,他总共进行了 12 场演讲。”
示例2:按语言过滤内容
用户输入:列出所有用西班牙语进行的演讲。
AI 会调用 get-talks 工具,参数为 language: "西班牙语",然后返回演讲列表(标题、地点、日期)。
示例3:查找特定主题的视频
用户输入:Erick 有没有关于 WebXR 的视频教程?
AI 会调用 get-videos 工具,参数为 title: "WebXR"(或使用关键词搜索),然后返回匹配的视频标题和链接。
示例4:生成年度活动总结
用户输入:使用 summarize-activity 提示,总结 2024 年的活动。
AI 会调用 summarize-activity 这个 prompt(不是工具)。这个 prompt 会指导 AI 生成格式化的总结,包括演讲、博客和视频的要点。
示例5:获取全局统计
用户输入:这个 MCP 服务器能提供哪些统计数据?
AI 可能会读取 erickwendel://statistics 这个资源,然后告诉你:“该服务器可以返回总演讲数、总视频数、按语言分组的演讲数量等。”
六、常见问题
问题1:配置后 AI 客户端中看不到任何工具或提示。
解决方案:首先确认你完全退出了客户端再修改配置文件。其次,检查 JSON 格式是否正确。最后,尝试在终端手动运行 npx -y @erickwendel/contributions-mcp 看是否有错误输出。
问题2:查询返回“没有找到结果”,但我确定应该有数据。
解决方案:该服务器的数据源是一个特定的 GraphQL API。请确认你的查询条件(如标题关键词、年份)是否与 API 中的数据匹配。可以尝试使用更宽泛的条件,或者先使用 check-status 工具确认 API 是否在线。
问题3:项目说需要 Node.js v23+,但我的版本是 v20,能用吗?
解决方案:项目在 src/index.ts 中使用了 --experimental-strip-types 标志,这需要较新的 Node.js 版本。官方文档建议 v23+。如果你通过 npx 运行,@erickwendel/contributions-mcp 包可能是预编译的 JavaScript,因此可能不需要这么高的版本。如果遇到启动错误,请升级 Node.js。
问题4:提示 Cannot find module '@erickwendel/contributions-mcp'。
解决方案:这是网络问题,npx 无法下载 npm 包。请检查你的网络,或者尝试设置 npm 镜像源。你也可以克隆仓库并按照文档中的“Local Development”方式进行本地路径配置。
问题5:这个服务器只能查询 Erick Wendel 的数据吗?
解决方案:是的,目前的数据源是固定的。但你可以 fork 这个项目,修改其背后的 GraphQL API 端点,将其适配到任何人的贡献数据集,甚至是你自己的知识库。
七、总结
erickwendel-contributions-mcp 是一个巧妙且完整的 MCP 服务器示例。它的数据范围虽然特定,但技术原理具有普遍性。通过这个项目,你可以学习到:
- 如何设计一个同时提供 Tools、Prompts 和 Resources 的 MCP 服务器。
- 如何使用 TypeScript 和 Zod 构建类型安全的 MCP 工具。
- 如何打包并发布一个 MCP 服务器到 npm,让任何人都可以通过
npx使用。 - 如何利用 MCPHost 和 Ollama 构建一个完全免费的 MCP 体验。
对于希望深入了解 MCP 协议进阶用法的开发者来说,这个项目是继模型上下文协议官方参考服务器之后的绝佳学习材料。它的代码结构清晰(分为 config、types、tools、utils、services 层),测试完善,非常值得仔细阅读和模仿。
该项目也体现了一种趋势:个人知识库和公开贡献将通过 MCP 成为 AI 可以原生理解和查询的数据源。也许不久后,我们每个人的 GitHub 首页都会有一个指向我们个人 MCP 服务器的链接。
I wish there was an easier way to fork this for my own contribution data.
The filtering by language (Spanish/English) is very practical thanks.
The npm package approach is the future of MCP distribution. So simple.
I used this to learn how to implement MCP resources. Very helpful.
The TypeScript setup uses native strip-types. That's modern Node.js.