MCP(模型上下文协议)标准化了应用程序和云端 PaaS、SaaS 等服务向 LLM 提供接口和上下文的方式,LLM + MCP 正在成为 AI Agent 生态的关键组成。为了帮助用户高效、安全地调用和管理各类流行 MCP 工具,七牛云 AI 大模型推理服务重磅升级,上线 Agent 和 MCP 托管服务,一站式提供大模型推理 + MCP 工具调用,为各类 Agent 开发提供统一、安全、标准化接入与编排的中间层,适用场景包括:
● 一步调用 LLM 推理大模型和多个流行 MCP 工具,支持开发更复杂的 Agent 应用
● 需要灵活编排、聚合多种工具和模型,统一接入和管理,增强服务扩展性
● 需要集中安全托管多种 MCP 的敏感密钥,避免在多个用户和终端暴露
● 本地终端系统多样,难以配置和运行多种代码编写和工具依赖的 MCP 服务
七牛云托管了部分流行的 MCP 工具,提供工具的运行环境、版本更新、性能优化,提供统一的 API 接口供用户调用。开发者用户选用流行的 hosted MCP 时,无需搭建运行环境,无需额外复杂配置,通过 Token API 直接调用即可。除此之外,开发者用户也可以通过 SSE 协议自定义选用更多站外的 MCP 工具。
图示:七牛云AI推理服务调用MCP工具流程示例
如何配置
● 登录七牛云控制台 >> AI 大模型推理,进入 MCP 服务管理页面
● 选择站内已托管的热门 MCP 工具,或者自定义配置自己在站外的 MCP 地址(SSE 协议)
● 后台会为用户选配的 MCP 生成专属的实例和接入地址
● 与请求大模型接口类似,一步调用 LLM + MCP,一站式实现 Agent
● 用户也可以通过 SSE、流式接口,将选配的 MCP 配置到本地客户端和其他环境使用
图示:七牛云AI大模型推理-MCP商店列表
按需选择 MCP 和接入方式
1.一步调用LLM + MCP,实现Agent能力
● 地址格式:
https://api.qnaigc.com/v1/agent/instance/${agent-id}
● 协议兼容:OpenAI接口兼容的Agent入口
● 适用场景:在调用LLM接口时,也允许LLM判断使用自己选配的托管MCP
2. 只引用MCP
● MCP协议
SSE:
https://api.qnaigc.com/v1/mcp/sse/${mcp-id}
HTTP-Streamable:
https://api.qnaigc.com/v1/mcp/http-streamable/${mcp-id}
● 适用场景:将云端托管和选配的MCP引入到本地聊天客户端和LLM业务场景
Agent 一次聚合多 MCP 工具调用
● 支持在 BaseUrl 中拼接多个 MCP-ID,实现一次聚合多个 MCP 工具实例:
https://api.qnaigc.com/v1/agent/group/${mcp-id-1},${mcp-id-2},${mcp-id-3}
● 适用场景:一次 Agent 请求中,聚合触发调用到多个 MCP 服务。
快速调用示例
● OpenAI 接口兼容
(以 Curl 直接请求 HTTP 接口为例)
export OPENAI_BASE_URL="https://api.qnaigc.com/v1/agent/instance/${agent-id}"
export OPENAI_API_KEY="<七牛云 AI API KEY>"
curl "$OPENAI_BASE_URL/v1/chat/completions" \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $OPENAI_API_KEY" \
-d '{
"messages": [{"role": "user", "content": "请调用你支持的三个 MCP 能力,并列举全部能力"}],
"model": "deepseek-v3-tool"
}'
● 标准 MCP 协议
(以官方Node SDK 使用 HTTP Streamable接口为例)
import { Client } from "@modelcontextprotocol/sdk/client/index"
import { StreamableHTTPClientTransport } from "@modelcontextprotocol/sdk/client/streamableHttp"
const serverUrl = '你的 MCP 服务 Url '
// 如 https://api.qnaigc.com/v1/mcp/http-streamable/e6dc8192***
const apiKey = '七牛云 AI API Key'
const client = new Client({
name: 'Qiniu-MCP-Client',
version: '1.0.0'
})
// 这里设置你的七牛云 api key 和 StreamableHTTP 连接地址
const transport = new StreamableHTTPClientTransport(new URL(serverUrl), {
requestInit: { headers: { 'Authorization': `Bearer ${apiKey}` } }
})
async function main() {
// 开始连接
await client.connect(transport)
// 列举 MCP 工具
const tools = await client.listTools()
// 查看支持的工具
console.log(tools)
}
main()
.then(() => { console.log('Client connected successfully') })
.catch((error) => { console.error('Error connecting client:', error) })
● 配置 SSE 或 Streamable 接口的 MCP 到本地客户端中
(以 Cherry Studio 客户端中 MCP 服务配置示例,使用其他 AI 对话客户端及 Cursor、VS Code 等开发工具时配置方式也类似)
基于 MCP 接入服务,七牛云将为企业和开发者提供标准协议转换、安全密钥托管、服务聚合、统一管理等关键能力。
关于七牛云AI大模型推理平台
近日发布的 Agent 与 MCP 托管服务,是七牛云 AI 大模型推理平台能力的一次重要扩展。该平台是七牛云(七牛智能02567.HK)倾力打造的一站式、高性能AI能力中心,致力于为广大开发者和企业提供稳定、高效、富有弹性的AI大模型调用与管理服务,从而显著降低AI技术落地门槛,加速智能化应用的构建。
根据七牛云官方信息,其AI大模型推理平台具备以下核心特点:
● 广泛的模型支持:平台汇聚了全球主流的先进 AI 模型,包括但不限于DeepSeek、Kimi、Qwen(通义)、MiniMax等,覆盖了从文本生成、代码编写到多模态处理的全场景需求。
● 兼容开放的API:服务接口完全兼容 OpenAI 的 API 标准,这意味着开发者可以极低的学习成本,将现有应用无缝迁移和对接到七牛云平台,或使用庞大的 OpenAI 生态工具链直接调用。
● 一站式服务与工具链:平台不仅提供模型推理,更集成了内容审核、智能语音(ASR/TTS)、OCR 识别等多种原子能力。此次新增的 Agent 与 MCP 服务,更是将平台从“模型调用”升级为“智能编排”,形成了从底层模型到上层应用的完整解决方案。
● 企业级的稳定与安全:依托七牛云多年在云服务领域的深厚积累,平台提供高可用的服务保障和多 API Key 管理等企业级功能,确保大规模并发请求下的稳定运行与业务安全。
综上,七牛云AI大模型推理平台通过提供丰富的模型选择、开放的接入标准和完善的服务生态,正在成为开发者构建下一代AI应用时的可靠基石。Agent 与 MCP 托管服务的推出,无疑将进一步巩固其在AI应用开发领域的领先地位。
(推广)