页面加载中...
从 GPU 驱动到 Docker 网络,从 Ollama 模型拉取到 MCP Server 连接超时——覆盖本地部署 Agent 最常踩的 12 个坑。
但本地部署的坑也最多。以下是 12 个最常见的排错场景。
# ❌ 错误:模型不存在 ollama run llama3 # Error: model llama3 not found # ✅ 修复:先拉取模型 ollama pull llama3 ollama run llama3
# 检查 GPU 使用情况 nvidia-smi # 使用量化模型减少显存占用 ollama pull llama3:8b-q4_0 # 或设置 Ollama 使用 CPU OLLAMA_LLM_LIBRARY=cpu ollama serve
# ❌ 错误:容器内访问 localhost:11434 失败 # ✅ 修复:使用 host.docker.internal services: agent: environment: - OLLAMA_URL=http://host.docker.internal:11434
{ "mcpServers": { "my-server": { "command": "python", "args": ["server.py"], "timeout": 30000 } } }
# 使用 uv 管理多版本 Python uv python install 3.12 uv venv --python 3.12 source .venv/bin/activate
# MCP Server 通常需要 Node.js >= 18 nvm install 18 nvm use 18 node --version
# 查找占用端口的进程 lsof -i :18800 kill -9 <PID> # 或使用不同端口 MCP_PORT=18801 python server.py
# 检查 .env 是否被加载 python -c "import os; print(os.environ.get('MY_KEY', 'NOT SET'))" # 确保使用 python-dotenv pip install python-dotenv
# 本地开发临时禁用 SSL 验证 export PYTHONHTTPSVERIFY=0 export NODE_TLS_REJECT_UNAUTHORIZED=0
# 启用 Flash Attention OLLAMA_FLASH_ATTENTION=1 ollama serve # 调整并发数 OLLAMA_NUM_PARALLEL=4 ollama serve # 使用更小的上下文窗口 OLLAMA_NUM_CTX=2048 ollama serve
# 清理 Docker 缓存 docker system prune -a docker volume prune
# 使用 MCP Inspector 调试 npx @modelcontextprotocol/inspector python server.py # 或手动添加日志 import logging logging.basicConfig(level=logging.DEBUG)
Agent 站点首选部署平台,零配置部署 Next.js,全球 CDN
立即体验 →