一款基于本地大模型(Local LLM)的智能助理应用,集成了知识库(RAG)、账号管理与智能对话功能。确保您的数据完全私有化,安全可控。
- 智能对话:基于本地部署的大语言模型(如 Qwen2.5),提供流畅的自然语言交互。
- 本地知识库:支持上传文本/Markdown构建个人知识库,通过 RAG 技术实现基于文档的精准问答。
- 账号管理:集成了账号管理功能,辅助记忆与检索常用系统账号(数据加密存储)。
- 隐私安全:所有数据(模型、向量库、数据库)均运行在本地环境,无需联网上传。
主界面与对话窗口
知识库与账号管理
- 前端:Electron, HTML/CSS/JS (原生)
- 后端:Python, FastAPI
- AI/LLM:vLLM (OpenAI Compatible API), SentenceTransformers (Embedding)
- 存储:SQLite (元数据), FAISS (向量检索)
进入 backend 目录并安装依赖:
cd backend
python -m venv .venv
# Windows
.venv\Scripts\activate
# Linux/macOS
source .venv/bin/activate
pip install -r requirements.txt配置环境变量:
复制 .env.example 为 .env 并根据实际情况修改(主要是 LLM 服务地址):
VLLM_BASE_URL=http://127.0.0.1:8099/v1
VLLM_MODEL=/root/Qwen2.5-14B-Instruct-AWQ
EMBEDDING_DIM=768
HOST=127.0.0.1
PORT=8000启动后端服务:
python -m backend进入 electron-app 目录:
cd electron-app
npm install
npm start构建 Windows 安装包:
cd electron-app
npm run distbackend/: Python FastAPI 后端服务electron-app/: Electron 桌面客户端源码docs/: 项目文档与截图

