Skip to content

CyberBrainPro/LocalMind

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

19 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

LocalMind Logo

LocalMind · 本地 AI 知识助手

把你的本地文档变成可对话的私有知识库,隐私本地化,全程自主掌控。
支持 Qwen(通义千问)模型、本地向量库、现代化前端界面。

⚡ 快速开始 · ✨ 功能特色 · 🖼 预览 · 🗺 Roadmap · 📜 License



🧠 什么是 LocalMind?

LocalMind 是一个完全运行在本地的 AI 知识助手。

它可以:

  • 将你的本地文档(文本)转成知识库
  • 使用向量检索理解文件内容
  • 通过 Qwen(通义千问)进行智能问答
  • 提供现代化前端对话界面 /chat
  • 文档与向量全部存储在本机,隐私 0 泄漏

你可以把它理解为:

“国产 Obsidian + RAG AI 的轻量版本地知识助手 MVP”

未来会提供桌面版本、一键安装、自动解析 PDF/Word/Markdown 的 Pro 版本。


🖼 预览

LocalMind Chat UI

▲ LocalMind 内置聊天界面,可查看引用知识块与上下文。

LocalMind Chat UI

▲ LocalMind 内置管理界面,可查看和配置本地知识库目录。


⚡ 快速开始

步骤 操作
1️⃣ git clone https://github.com/CyberBrainPro/LocalMind.git
2️⃣ 安装依赖:pip install -r requirements.txt
3️⃣ 创建 .env 并填入 Qwen API Key
4️⃣ 启动服务:uvicorn main:app --reload --port 8787
5️⃣ 访问:http://127.0.0.1:8787/chat

🧩 环境变量配置(.env 示例)

在项目根目录创建 .env 文件, 开源参考 .env.example:

# 通义千问 API Key(必填)
LLM_API_KEY=your-dashscope-api-key-here

# Qwen OpenAI 兼容模式 Base URL(可选,不写则使用默认值)
LLM_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1

# 默认模型(可选)
LLM_MODEL=qwen-plus

✨ 主要特性

🔍 本地私有知识库

  • 文档 → 切片 → 向量 → RAG 检索
  • 不上传任何文档到云端
  • 灵活的切片策略(可替换、可扩展)

🤖 通义千问(Qwen)支持

  • 兼容 OpenAI API 调用方式
  • 支持 qwen-plusqwen-max 等模型
  • 配置简单:.env 控制

🧠 本地向量库(ChromaDB)

  • 内置本地数据库(无需服务器)
  • 持久化到 ./localmind_db/

💬 内置 Chat UI /chat

  • Vue3 + 无编译静态文件
  • 支持对话历史
  • 支持查看引用的文档片段
  • 现代化视觉风格(深色主题)

📁 项目结构


LocalMind/
├─ main.py              # 后端核心逻辑(FastAPI)
├─ requirements.txt     # 依赖
├─ localmind_db/        # Chroma 持久化向量库(自动生成)
└─ static/
    └─ chat.html         # 前端聊天界面(Vue3 单文件)


🔌 API 说明

/ingest 导入文本

POST /ingest
{
  "text": "你的内容……",
  "doc_id": "可选",
  "title": "可选"
}

/query 智能问答

POST /query
{
  "question": "你的问题?",
  "top_k": 5
}

🗺 路线图 Roadmap

  • Qwen 接入(LLM + embedding)
  • 本地向量库(Chroma)+ RAG
  • 强隐私:文档不上传
  • 前端聊天界面 /chat
  • PDF / Word / Markdown 文件解析
  • 多知识库(按项目/主题分类)
  • 收藏对话 / 导出
  • 文档文件夹自动监控(类似 Obsidian Vault)
  • 流式回答(Streaming)
  • 桌面版(Windows/macOS/Linux)
  • 企业私有部署版本(Pro / Enterprise)

想关注项目进展?欢迎点一颗 ⭐ Star!


🧭 Open Core 模式

LocalMind 采用 Open Core(开放核心) 商业策略:

开源部分(本仓库)

  • 核心 RAG 逻辑
  • Qwen 接入
  • FastAPI 服务
  • 本地向量库
  • 聊天前端(/chat)

商业增强版(计划中)

  • 桌面应用(Windows/macOS/Linux)
  • 一键安装程序
  • PDF/Word/Markdown 自动解析
  • 多知识库 UI
  • 本地模型加速引擎
  • 文件夹自动同步
  • 团队协作 / 企业管理后台

核心开源保证透明与可信,商业版本支持项目可持续发展。


📜 License

本项目使用 Apache License 2.0

这意味着你可以:

  • 商业使用
  • 修改
  • 分发
  • 在衍生项目中闭源核心逻辑

但需保留完整版权和 LICENSE 声明。


⭐ 支持项目

如果 LocalMind 对你有帮助,请考虑给仓库点个 Star:

👉 https://github.com/CyberBrainPro/LocalMind

你的支持会影响项目路线图的优先级排序。


Made with ❤️ by CyberBrainPro · 2025

About

your local mind

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published