通过这套流程,你可以在 Cursor(免费版 Hobby) 中使用自托管的 Qwen2.5‑Coder 或其他模型,完全免费、零付费要求。
一、总体架构介绍
我们将搭建以下三者之间的“桥梁”:
-
Ollama —— 本地模型服务器
-
ngrok —— 将本地端口暴露到公网
-
Cursor —— 模拟使用 OpenAI 接口调用本地模型
二、环境准备
请确保你已完成以下准备:
-
安装并登录 Cursor 客户端
-
安装 Ollama
-
安装 ngrok 并获取 auth token
三、逐步操作流程
1. 安装与拉取模型
# 安装 ollama(官方页面)
curl -fsSL https://ollama.com/install.sh | sh
# 拉取模型,以 Qwen2.5‑Coder 或 DeepSeek‑R1 为例
ollama pull qwen2.5-coder:32b
2. 启动 Ollama 并开启 CORS
export OLLAMA_ORIGINS="*"
ollama serve
解释:设置 OLLAMA_ORIGINS=* 可解除 CORS 限制,让外部请求(例如来自 ng