首页 > 业界 > 关键词  > MCP最新资讯  > 正文

如何使用官方MCP协议服务?推荐使用AIbase MCP导航工具站

2025-04-07 11:22 · 稿源:站长之家用户

在当今快速发展的技术领域,MCP模型上下文协议)正逐渐成为连接 AI 模型与外部工具和服务的重要桥梁。使用官方 MCP Server 可以极大地扩展 AI 应用的功能,使其能够与各种常见服务和工具无缝集成。

本文将详细介绍如何使用官方 MCP Server,包括选择合适的 Host 应用、配置连接以及触发调用等步骤。

对于想要深入了解 MCP 技术的开发者,AIbase的 MCP 资源网站(https://www.aibase.com/zh/repos/topic/mcp)是一个绝佳的选择。该网站提供了丰富的学习资料、开发工具和社区支持,帮助开发者更好地掌握 MCP 技术。

  • 丰富的学习资料:从基础概念到高级应用,AIbase 提供了详细的文档和教程,适合不同水平的开发者。
  • 实用的开发工具:包括 MCP Server 的示例代码和开发框架,帮助开发者快速搭建和测试自己的 MCP Server。
  • 活跃的社区交流:开发者可以在社区中交流经验、分享项目、提出问题并获得解答。

通过 AIbase 的资源,您可以更深入地探索 MCP 的 潜力,并将其应用于更多复杂的场景中。

MCP.png

了解官方 MCP Server 的种类和功能

官方 MCP Server 由 Model Context Protocol 组织或与该组织合作的实体开发和维护,旨在提供与常见服务和工具的集成。这些 Server 提供了丰富的功能,例如:

  • Git:用于读取、操作和搜索 Git 代码库。
  • GitHub:用于仓库管理、文件操作和 GitHub API 集成。
  • Google Maps:用于获取位置信息。
  • PostgreSQL:用于只读数据库查询。
  • Slack:用于发送和查询 Slack 消息。

这些官方 MCP Server 为开发者和用户提供了强大的工具,使得 AI 应用能够与各种外部服务进行高效交互。

选择一个支持 MCP 的 Host 应用

要使用官方 MCP Server,您需要选择一个支持 MCP 的 Host 应用。这些应用能够理解和利用 MCP 协议,从而实现与 MCP Server 的通信。一些常见的支持 MCP 的 Host 应用包括:

  • Claude Desktop:由 Anthropic 官方推出,内置 MCP Client。
  • Cursor:一个支持 MCP 的代码编辑器。
  • Cline:也支持 MCP 协议。

配置 Host 应用以连接到官方 MCP Server

配置 Host 应用以连接到官方 MCP Server 是使用 MCP 的关键步骤。具体的配置方法取决于您选择的 Host 应用,通常涉及以下几个方面:

  • 获取 MCP Server 的连接信息:一些平台(例如 Cursor Directory 或其他 MCP Server 列表)会提供配置命令或信息。官方 MCP Server 列表也可能提供相关信息。
  • 在 Host 应用中添加 Server 配置:对于 Claude Desktop,这通常需要编辑一个配置文件(例如claude_desktop_config.json)并添加 MCP Server 的相关信息,如命令、参数和项目路径。对于 Cursor,配置方式可能包括在设置中添加 Server 信息,或者通过特定的命令。
  • 确保 Server 正常运行:有些 MCP Server 需要在本地运行。您可能需要根据官方文档或说明启动这些 Server。

在 Host 应用中使用 LLM 并触发对官方 MCP Server 的调用

一旦您的 Host 应用配置好并连接到官方 MCP Server,您就可以像平常一样与 LLM 进行交互。当 LLM 判断需要使用某个官方 MCP Server 提供的功能来响应您的请求时,它会发出工具调用请求。Host 应用的 MCP Client 会处理这个请求,并与相应的 MCP Server 通信以执行操作。您可能需要在 Host 应用中授权 LLM 使用特定的 MCP Server。

查看和利用 MCP Server 的响应

LLM 在接收到 MCP Server 返回的结果后,会将其融入到最终的回复中,呈现给您。例如,如果您请求 Claude 保存一首诗到您的桌面,Claude 会通过文件系统 MCP Server 完成这一操作,并将结果反馈给您。

具体示例

以 Claude Desktop 为例,使用官方文件系统 MCP Server 的步骤可能包括:

  1. 确认您已安装 Claude Desktop。
  2. 找到官方提供的文件系统 MCP Server 的配置信息(这可能内置于 Claude Desktop,或者需要您手动配置)。
  3. 如果需要手动配置,您可能需要在claude_desktop_config.json文件中添加文件系统 MCP Server 的相关配置,例如执行命令和必要的参数,以允许 Claude 访问您的本地文件系统。
  4. 重启 Claude Desktop 使配置生效。
  5. 在与 Claude 的对话中,提出需要访问本地文件系统的请求,例如 “你能否将这首诗保存到我的桌面?”。
  6. Claude 可能会请求您允许其使用文件系统 MCP Server 的权限。
  7. 如果一切配置正确,Claude 应该能够利用文件系统 MCP Server 的功能来完成您的请求。

对于 Cursor,使用官方 GitHub MCP Server 的步骤可能包括:

  1. 确认您已安装 Cursor。
  2. 在 Cursor 的配置中,添加官方 GitHub MCP Server 的连接信息。这可能涉及到复制官方提供的命令并粘贴到 Cursor 的配置页面。
  3. 在 Cursor 中与 AI 助手交互,提出需要访问 GitHub 信息的请求,例如 “搜索关于 ‘MCP’ 的 GitHub issues”。
  4. Cursor 的 AI 助手会利用 GitHub MCP Server 来执行搜索,并将结果呈现给您。

使用官方 MCP Server 可以极大地扩展 AI 应用的功能,使其能够与各种外部服务和工具无缝集成。通过选择合适的 Host 应用、配置连接以及触发调用,您可以轻松实现 AI 模型与外部世界的高效交互。希望本文的指南能帮助您更好地理解和使用 MCP 技术,提升您的开发效率和应用体验。

举报

  • 相关推荐
  • MCP服务库完整指南:如何选择最适合的Model Context Protocol服务

    本文介绍了MCP(Model Context Protocol)作为连接大型语言模型与外部数据源的重要桥梁。随着AI技术发展,选择合适的MCP服务库对开发者至关重要。文章分析了MCP服务库的核心价值:提升开发效率、增强系统互操作性、降低技术门槛。评估MCP服务库质量需考虑协议兼容性、安全性、生态系统丰富度及社区活跃度等维度。建议开发者根据业务需求选择服务,初创公司可侧重简便性,大型企业应关注安全性和扩展性。文章还指出MCP服务未来将向云原生化、智能化运维和标准化方向发展,并推荐使用专业对比平台(如mcp.aibase.cn)辅助决策。

  • 昆仑万维UniPic 2.0“小钢炮”模型炸场,一个模型搞定理解+生成+编辑

    大模型又迎来新一波的迭代周期。 近日,从Open AI发布GPT-5,到国内的昆仑万维、商汤、百川智能、智谱等都陆续发布了自己的新模型。其中昆仑万维更是一口气开启了技术周,连续5天每天发布一个新模型,而8月13日发布的,正是其本周发布的第三款模型——多模态统一模型UniPic2.0。 UniPic2.0主打的是,在单一模型中深度融合图像理解、文本到图像生成、图像编辑三大核心能力

  • 卢伟冰回应格力能否接入米家App:技术上没问题

    今日,小米米家App宣布,西门子家电正式接入米家App,支持小米澎湃智联、超级小爱控制等功能。 小米集团总裁卢伟冰表示,欢迎更多的家电品牌接入米家,一起加速传统家电的智能化,让更多用户更早地体验到智能科技所带来的美好生活。” 有网友向卢伟冰提问:格力能接吗”,卢伟冰回复称技术上没问题”。

  • CCF HPC China 2025 | KunLun HPC解决方案赋能多行业创新升级 并获全国产异构创新HPC解决方案奖

    8月13-16日,第21届CCF全国高性能计算学术年会在鄂尔多斯召开。本届大会以"绿动计算 超智融合"为主题,汇聚顶尖学术阵容,展示全产业链成果与前沿趋势。河南昆仑技术有限公司重点展示双生态硬件平台、极致性能软件平台、应用迁移调优服务等HPC全栈解决方案。其KunLun HPC解决方案实现100%国产化,兼容x86设备,具备东西方双生态兼容、高性能、高能效等五大特点,并获全国产异构创新HPC解决方案奖。昆仑技术同期发布KunLun V2系列服务器产品,助力科研转化和行业智能化升级。多位专家在主题论坛分享国产超算软件生态建设经验,强调需持续投入构建自主可控的超算软件生态。昆仑技术表示将持续深耕高性能计算领域,推动行业向智能高效方向发展。

  • AI日报:阿里开源Qwen-Image-Edit;淘宝“AI万能搜”功能灰度测试;小红书发布DynamicFace人脸生成技术

    本期AI日报聚焦多项AI领域创新:1)阿里开源Qwen-Image-Edit图像编辑模型,支持中文渲染与精准文本编辑;2)淘宝测试"AI万能搜"功能,重构电商搜索体验;3)小红书发布DynamicFace人脸生成技术,实现高质量图像视频换脸;4)Gemini API新增URL Context功能,简化网页内容获取流程;5)Nvidia推出小型开放模型Nemotron-Nano-9B-v2,支持智能推理开关;6)马斯克发布Grok Imagine 0.1测试版,进军AI图像生成领域;7)Vercel推出iOS版AI开发工具v0;8)理想汽车发布MindGPT 3.1模型,处理速度提升5倍;9)ToonComposer工具简化动画制作流程;10)ElevenLabs推出视频到音乐生成流程。

  • OpenAI的开源模型现已在IBM watsonx.ai上提供

    OpenAI发布两款开源AI模型GPT-OSS-120B和GPT-OSS-20B,允许开发者自由下载、运行和定制。其中120B模型已部署在IBM Watsonx.ai平台,采用专家混合架构,支持本地或云端部署,不受商业用途限制。模型具备高透明度,输出完整推理链,在多项基准测试中表现优异。此次发布标志着OpenAI首次加入开源生态,IBM强调其开放战略,为企业提供灵活、安全的AI开发选择。

  • 华为发布AI推理技术UCM:降低HBM依赖 计划9月正式开源

    在2025金融AI推理应用落地与发展论坛上,华为重磅发布了其AI推理创新技术UCM(推理记忆数据管理器)。这项技术被业内视为有望重塑国内AI推理格局的关键突破。 UCM技术的核心在于其先进的KV Cache系统,通过融合多种缓存加速算法工具与精细的分级管理策略,高效处理推理过程中产生的大量记忆数据。这带来了多重显著优势:有效扩大上下文窗口,确保推理过程的高吞吐量与

  • AI日报:昆仑万维发布SkyReels-A3模型;百度搜索PC端全面上线AI搜索;Grok 4 AI模型永久免费开放

    AI日报栏目聚焦人工智能领域最新动态:1)昆仑万维发布SkyReels-A3模型,实现语音驱动数字人生成;2)xAI宣布Grok4模型永久免费开放;3)OpenAI发布GPT-5提示词指南;4)百度PC端上线AI搜索功能;5)微软Windows Co pilot接入GPT-5;6)百川智能开源医疗大模型Baichuan-M2性能超越GPT-oss120b;7)苹果iOS26将集成ChatGPT-5;8)谷歌推出3D视觉编辑框架BlenderFusion;9)轻量级TTS模型Kitten TTS参数仅1500万;10)MiniCPM-V

  • Matrixport 旗下 Cactus Custody 与 OnChain 合作,完成招银国际美元货币市场基金化上链

    新加坡Matrixport旗下合规数字资产托管商Cactus Custody与OnChain合作,将招商国际美元货币市场基金以化形式上链运营,成为全球首只港新互认基金上链案例。该合作解决市场缺乏可审计、可托管的现金类资产等痛点,通过链上净值计算、白名单管理等机制,为机构与合格投资者提供透明、合规的链上投资选项。未来双方将持续深化合作,推动RWA标准化发展。

  • Anthropic天价赔款?大模型“盗版”的100000种花样

    ​AI大模型的秘密配方是什么?答案可能很简单:海量的“盗版内容”。 这几乎是行业内公开的秘密。2023年,《纽约时报》一纸诉状将OpenAI和微软告上法庭,正式拉开了这场战争的序幕。很快,战火烧遍了整个硅谷。Meta因其Llama模型涉嫌使用盗版书籍而面临集体诉讼;Anthropic同样因其模型Claude的训练数据而被告,一时间,几乎所有头部玩家都被推上了被告席。 这场大模型与版权�

今日大家都在搜的词: