如何在 Cherry Studio 中使用 MCP

在 Cherry Studio 中配置和使用模型上下文协议 (MCP) 模型上下文协议(Model Context Protocol,简称 MCP)允许大型语言模型(LLM)通过调用外部工具和服务获取实时信息,从而扩展其能力。本文将详细介绍如何在 Cherry Studio 中配置和使用 MCP。 💡 提示:建议提前阅读 MCP 协议完全指南 了解更多 MCP 相关的基础知识。 准备工作 1. 安装最新版本的 Cherry Studio 从官方网站 cherry-ai.com 下载并安装最新版的 Cherry Studio。 2. 了解 MCP 传输协议类型 MCP 支持两种传输协议: STDIO(标准输入/输出):在本地运行,可访问本机文件和应用程序,但需要配置 Python 和 NodeJS 环境 SSE(服务器发送事件):在远程服务器运行,配置简单,但无法访问本地资源 配置环境(STDIO 类型需要) 如果你只使用 SSE 类型的 MCP 服务,可以跳过此部分。 Windows 环境配置 安装 Python (使用 uv) 打开 PowerShell 运行安装命令 powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex" 关闭并重新打开 PowerShell,输入 uv 验证安装是否成功 ...

2025-03-11 · 2 min · 362 words · Vaayne

MCP 协议完全指南

引言 模型上下文协议 (Model Context Protocol, MCP) 是近期 AI 领域的最热门的话题,它为大型语言模型提供了与外部世界交互的标准化方式。本文将深入介绍 MCP 的架构、工作原理、开发方法及其应用场景,帮助读者全面了解这一协议如何增强 AI 应用的能力和灵活性。 什么是 MCP 模型上下文协议(MCP) 是一种开放协议,旨在为大型语言模型(LLM)提供标准化的上下文访问方式。官方举例说,MCP 犹如 AI 应用的 “USB-C 端口”,使 LLM 能够通过统一的接口无缝连接至多种数据源和工具(如文件系统、数据库或外部 API)。 基于 JSON-RPC(一种使用 JSON 编码的远程过程调用协议)构建的 MCP 提供了一种面向客户端和服务器之间上下文交换和采样协调的有状态会话协议。 MCP 的架构 MCP 采用客户端-服务器模型,其核心组件包括: MCP Hosts:运行 MCP 的主应用程序,例如 Claude Desktop、智能 IDE 或 AI 工具,负责通过 MCP 访问外部数据。 MCP Clients:协议客户端,与服务器建立一对一连接,负责发送请求并接收响应。 MCP Servers:轻量级程序,通过 MCP 暴露特定功能(如文件读取或 API 调用)。 这是 MCP 的时序图 Host 开始初始化 Client Client 尝试与 Server 建了连接,并询问 Server 有哪些能力 服务端就回应说并返回所有支持的功能(例如天气查询,网络搜索),这样客户端和服务端就建立了 1:1 的连接 User 和 LLM 说我希望查询"未来一周北京的天气",LLM 就会告诉 Client 说我需要调用 “网络搜索” 和 “天气查询” 的 Tools。 Client 收到 Host 的请求,就会把请求的信息发给 Server Server 收到信息就开始处理,处理完成就返回给 Client Client 收到返回的信息,再将信息返回给 Host 进行 LLM 对话 LLM 给予 Client 给的信息再生成最终的回复返回给 User 若想深入了解 MCP 的更多细节,欢迎访问 官方网站,协议详情 ...

2025-03-09 · 4 min · 704 words · Vaayne