DevStar MCP Server 是一个完整的AI驱动开发平台解决方案,通过集成 DevStar 代码托管平台、私有化大语言模型、Gitea MCP 服务器和 Cursor IDE,为开发者提供智能化的代码生成、管理和审查体验。
┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐
│ DevStar │ │ Private LLM │ │ Gitea MCP │ │ Cursor │
│ Studio │───▶│ (Ollama) │───▶│ Server │───▶│ IDE │
│ │ │ │ │ │ │ │
│ • 代码托管 │ │ • DeepSeek-R1 │ │ • MCP协议 │ │ • AI编程助手 │
│ • DevEnv引擎 │ │ • Qwen2.5-Coder │ │ • Git操作 │ │ • 代码生成 │
│ • CI/CD流水线 │ │ • 本地部署 │ │ • 仓库管理 │ │ • 智能对话 │
└─────────────────┘ └─────────────────┘ └─────────────────┘ └─────────────────┘
如果您是在Windows环境下,请在cmd命令行下先运行如下命令:
powershell wsl --install -d Ubuntu-20.04
如果以上命令无法自动完成安装WSL,可以手动执行如下两条命令完成安装:
dism.exe /Online /Enable-Feature /FeatureName:Microsoft-Windows-Subsystem-Linux /All /LimitAccess /All
dism.exe /Online /Enable-Feature /FeatureName:VirtualMachinePlatform /All /LimitAccess
在Ubuntu-20.04下完成安装:
wget -c https://devstar.cn/assets/install.sh && chmod +x install.sh && sudo ./install.sh
devstar help
------------------------------------------------------------------------
DevStar usage help:
help, -h, --help, Help information
start Start DevStar Studio
--port=<arg> Specify the port number (default port is 8080)
--version=<arg> Specify the DevStar Studio Image Version (default verson is latest)
stop Stop the running DevStar Studio
logs View the logs of the devstar-studio container
clean Clean up the running DevStar Studio, including deleting user data. Please use with caution.
------------------------------------------------------------------------
sudo devstar start
...
-------------------------------------------------------
DevStar started in http://localhost:8080 successfully!
-------------------------------------------------------
然后通过浏览器打开http://localhost:8080 完成后配置安装,默认第一个注册用户为管理员账户。
产出结果: 可访问的 DevStar 代码托管平台 URL
📖 详细部署指南
使用 Ollama 在本地部署高性能代码生成模型,并通过 ngrok 提供公共访问接口,支持多种编程语言和开发场景。
安装部署:
# 1. 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh
# 2. 下载模型
ollama pull deepseek-r1:7b # 平衡选择
ollama pull qwen2.5-coder:7b # 代码专用
# 3. 启动 Ollama 服务
ollama serve
# 4. 安装并配置 ngrok
# 从 https://ngrok.com/ 下载并登录
# 5. 启动 ngrok 提供公共访问
.\ngrok.exe http 11434 --host-header="localhost:11434"
产出结果: 通过 ngrok 公共 URL 访问的本地大模型 API
检查终端节点是否处于活动状态
curl https://xxxx.xxxx.xxxx
📖 详细部署指南
安装配置:
# 从源码构建
git clone https://gitea.com/gitea/gitea-mcp.git
make install
# 构建后,将二进制文件 gitea-mcp 复制到系统 PATH 中包含的目录。例如:
cp gitea-mcp /usr/local/bin/
产出结果: 可用的 Gitea MCP 服务器实例
📖 详细配置指南
在 Cursor 中集成前面配置好的 MCP 服务器和私有 LLM,实现 AI 驱动的智能编程体验。
内置模型
cursor内置了很多LLMs,包括最先进的GPT4、Claude4和openai最新发布的推理模型o3,在右上角的设置中即可打开相应的模型进行辅助编程。
私有LLM
-
定义我们在cursor中使用的模型,可以使用
ollama list
查看您拥有的模型列表。 -
在 OpenAI Key 字段输入:
ollama
-
在 Base URL 字段输入:前面步骤中获取的 ngrok 公共地址
全局设置
- Cursor Setting → Tools & Integrations → MCP Tools
- 点击 "New MCP Server"
- 将前面步骤中的 MCP 配置代码添加到
mcp.json
文件
mcp.json文件
stdio方式
将GITEA_HOST配置为前面步骤中获取的 DevStar 代码托管平台 URL
GITEA_ACCESS_TOKEN配置为个人的access token
# 配置 MCP 服务器 --stdio
{
"mcpServers": {
"gitea": {
"command": "gitea-mcp",
"args": [
"-t",
"stdio",
"--host",
"https://devstar.cn"
// "--token", "<your personal access token>"
],
"env": {
// "GITEA_HOST": "https://devstar.cn",
// "GITEA_INSECURE": "true",
"GITEA_ACCESS_TOKEN": "<your personal access token>"
}
}
}
}
sse方式
./gitea-mcp -t sse --port 8080 --host <your devstar url> --token <your personal access token>
#配置 MCP 服务器 --sse
{
"mcpServers": {
"gitea": {
"url": "http://localhost:8080/sse"
}
}
}
- 检查 MCP 状态: 在 Settings → MCP 中确认服务器显示为 Enabled 且有绿点标识
- 测试功能: 使用
Ctrl + L
打开智能对话,选择 Agent 模式测试代码生成和仓库操作
📖 详细配置指南
DevStar MCP 服务器提供以下常用工具,帮助您高效管理 Gitea 仓库:
工具名称 | 功能分类 | 描述 | 使用示例 |
---|---|---|---|
get_my_user_info | 🔐 用户管理 | 获取已认证用户信息 | 查看示例 |
search_users | 🔐 用户管理 | 搜索用户 | 查看示例 |
create_repo | 📦 仓库管理 | 创建新仓库 | 查看示例 |
list_my_repos | 📦 仓库管理 | 列出用户拥有的仓库 | 查看示例 |
search_repos | 📦 仓库管理 | 搜索仓库 | 查看示例 |
create_branch | 🌿 分支管理 | 创建新分支 | 查看示例 |
delete_branch | 🌿 分支管理 | 删除分支 | 查看示例 |
list_branches | 🌿 分支管理 | 列出仓库分支 | 查看示例 |
create_issue | 🐛 问题管理 | 创建新问题 | 查看示例 |
list_repo_issues | 🐛 问题管理 | 列出仓库问题 | 查看示例 |
create_issue_comment | 🐛 问题管理 | 创建问题评论 | 查看示例 |
edit_issue_comment | 🐛 问题管理 | 编辑问题评论 | 查看示例 |
create_pull_request | 🔄 拉取请求 | 创建拉取请求 | 查看示例 |
list_repo_pull_requests | 🔄 拉取请求 | 列出拉取请求 | 查看示例 |
完整的 使用示例
配置自动化的代码审查流程,提升代码质量:
📖 代码审查配置指南
本项目遵循 MIT 许可证。商业使用请联系 contact@mengning.com.cn
开始您的 AI 驱动开发之旅! 🚀