这个项目演示了如何使用 MCP (Model Context Protocol) 和阿里云 Qwen 模型构建一个智能用户数据库查询系统。
项目已从使用本地 Ollama 模型改为使用阿里云 Qwen 模型。主要改动包括:
-
client.py - 替换了 LLM 调用方式
- 移除了
ollama依赖 - 使用
OpenAI客户端连接到阿里云 DashScope 服务 - 调用阿里云
qwen-flash模型
- 移除了
-
requirements.txt - 更新依赖
- 移除
ollama>=0.1.0 - 添加
openai>=1.0.0 - 添加
python-dotenv>=0.19.0
- 移除
-
环境配置
- 需要在
.env文件中配置ALIYUN_MODEL_API_KEY
- 需要在
pip install -r requirements.txt复制 .env.example 为 .env 文件,并填入你的阿里云 API KEY:
cp .env.example .env编辑 .env 文件:
ALIYUN_MODEL_API_KEY=your_actual_api_key_here
在一个终端窗口启动 MCP 服务器:
python mcp_server.py在另一个终端窗口运行客户端:
python client.py💬 智能用户查询助手 (MCP + 阿里云 Qwen)
✅ 已连接到阿里云 Qwen (qwen-flash)
❓ 输入你的问题,输入 'exit' 退出
--------------------------------------------------
👤 你: 查询所有用户
🤖 AI 思考中...
🧠 LLM 决策: {"tool": "query_users", "arguments": {}}
🔧 调用工具: query_users
📊 工具参数: {}
✅ 工具结果: {'status': 'success', 'count': 3, 'users': [...]}
🤖 AI: 系统中共有 3 个用户...
- 访问 https://dashscope.console.aliyun.com/
- 登录你的阿里云账户(或注册新账户)
- 创建 API KEY
- 将 API KEY 复制到
.env文件
- 模型: qwen-flash
- API 地址: https://dashscope.aliyuncs.com/compatible-mode/v1
- 兼容性: 与 OpenAI API 兼容
.
├── client.py # MCP 客户端 - 与阿里云 Qwen 和 MCP 服务器交互
├── mcp_server.py # MCP 服务器 - 提供用户数据库查询工具
├── requirements.txt # Python 依赖
├── .env.example # 环境变量配置示例
└── aliyun-qwen-api-demo/ # 阿里云 Qwen API 演示
├── generate-demo.py # 文本生成演示
└── embedding-demo.py # 向量嵌入演示
MIT