通过这套流程,你可以在 Cursor(免费版 Hobby) 中使用自托管的 Qwen2.5‑Coder 或其他模型,完全免费、零付费要求。


一、总体架构介绍

我们将搭建以下三者之间的“桥梁”:

  1. Ollama —— 本地模型服务器

  2. ngrok —— 将本地端口暴露到公网

  3. Cursor —— 模拟使用 OpenAI 接口调用本地模型 


二、环境准备

请确保你已完成以下准备:

  • 安装并登录 Cursor 客户端

  • 安装 Ollama

  • 安装 ngrok 并获取 auth token


三、逐步操作流程

1. 安装与拉取模型

# 安装 ollama(官方页面)
curl -fsSL https://ollama.com/install.sh | sh

# 拉取模型,以 Qwen2.5‑Coder 或 DeepSeek‑R1 为例
ollama pull qwen2.5-coder:32b

2. 启动 Ollama 并开启 CORS

export OLLAMA_ORIGINS="*"
ollama serve

解释:设置 OLLAMA_ORIGINS=* 可解除 CORS 限制,让外部请求(例如来自 ng