Memory Core Enterprise is the canonical implementation of the mandatory MEMORY-PRIORITY-1 sub-protocol under the global A-CODE (AC-2026-INF) standard.
📋 View Full Compliance Statement
Внешний микросервис долговременной памяти для LLM-ассистентов
Memory Core — это готовый к внедрению on-premise микросервис, который решает проблему «амнезии» современных LLM-ассистентов. Он подключается к любой LLM через REST API и даёт ей способность помнить контекст между сессиями, не требуя изменения архитектуры самой модели.
Ключевая особенность: Memory Core работает как внешний модуль, а не как внутренняя перестройка ядра LLM. Это делает интеграцию быстрой, безопасной и не нарушающей существующие процессы.
Современные LLM (GigaChat, YandexGPT, DeepSeek, ChatGPT) страдают от «цифровой амнезии»:
- ❌ Нет персонализации: каждый диалог начинается с чистого листа.
- ❌ Потеря контекста: важные факты и договорённости забываются.
- ❌ Высокие затраты: повторная передача всей истории диалога увеличивает расход токенов.
- ❌ Юридические риски: невозможность контролировать хранимые данные.
Memory Core устраняет эти проблемы:
- ✅ Снижение затрат на токены до 50 раз — вместо длинной истории передаётся сжатый когнитивный профиль.
- ✅ Персонализация до 90% — семантический поиск находит факты по смыслу.
- ✅ Полное соответствие 152-ФЗ, ФСТЭК, ГОСТ — данные хранятся в вашем контуре (on-premise).
- ✅ Внедрение за 1 день — Docker-контейнер, одна команда для запуска.
Memory Core спроектирован как внешний микросервис, взаимодействующий с LLM через REST API.
- Пользователь отправляет запрос в LLM.
- LLM запрашивает контекст у Memory Core через
/recall. - Memory Core выполняет семантический поиск по векторной базе данных (PostgreSQL + pgvector) и возвращает релевантные факты.
- LLM добавляет полученный контекст в промпт и генерирует персонализированный ответ.
- Memory Core сохраняет новые факты из диалога через
/remember. - Раз в 24 часа Memory Core автоматически сжимает все накопленные факты в когнитивный профиль пользователя с помощью LLM (Ollama/Llama3).
| Компонент | Технология |
|---|---|
| API-сервер | FastAPI (Python 3.11) |
| Векторная БД | PostgreSQL + pgvector |
| Эмбеддинги | Sentence-Transformers |
| Сжатие профиля | Ollama + Llama3 |
| Контейнеризация | Docker + Docker Compose |
| Веб-интерфейс | HTML/CSS/JavaScript |
| Функция | Описание | Статус |
|---|---|---|
| Семантический поиск | Поиск фактов по смыслу, а не по ключевым словам | ✅ |
| Двухуровневая память | Краткосрочные факты + сжатый LLM-профиль | ✅ |
| Авто-взвешивание | Важные факты получают больший вес при частом использовании | ✅ |
| Детектор обещаний | Находит фразы «сделаю», «позвоню», «завтра» | ✅ |
| Мультитенантность | Изоляция данных по user_id |
✅ |
| API-ключ | Защита всех эндпоинтов (кроме /health) |
✅ |
| Веб-админка | Управление памятью через браузер | ✅ |
| Docker-готовность | Запуск одной командой | ✅ |
| Авто-обновление | Когнитивный профиль обновляется каждые 24 часа | ✅ |
| On-Premise | Данные не покидают сервер компании | ✅ |
| Метрика | Без Memory Core | С Memory Core | Эффект |
|---|---|---|---|
| Затраты на токены (1 пользователь) | $5.00/мес | $0.10/мес | Снижение в 50 раз |
| Точность персонализации | ~0% | 85-90% | Рост лояльности |
| Время развёртывания | — | < 1 дня | Быстрый старт |
| Соответствие 152-ФЗ | ✅ Из коробки | Нет рисков |
При масштабе 1 млн активных пользователей экономия составляет ~$4.4 млн в месяц.
Memory Core полностью соответствует требованиям РФ для корпоративного развёртывания:
- ФЗ-152 «О персональных данных» — данные локализованы в вашем контуре.
- ФЗ-149, ФЗ-187 — защита информационных систем и КИИ.
- Приказ ФСТЭК №21 — защита от НСД (изоляция
user_id, аудит). - ГОСТ Р 57580.1-2017 — банковская безопасность.
Принципы Privacy by Design:
- Явное согласие пользователя на хранение данных.
- Полный CRUD-контроль (пользователь может просмотреть, изменить, удалить свои данные).
- Аудит всех операций с памятью.
# 1. Клонировать репозиторий
git clone https://github.com/Entonialiev/MemoryCore_Docker
cd MemoryCore_Docker
# 2. Запустить сервисы
docker-compose up -d
# 3. Скачать модель для сжатия профиля (один раз)
docker exec memory_ollama ollama pull llama3:latest
# 4. Открыть админ-панель
# http://localhost:8000/static/index.html