Memori: Дайте вашему ИИ долговременную память без сложностей
Представьте, что ваш чат-бот или AI-ассистент помнит все предыдущие диалоги с пользователем, извлекает нужный контекст из базы данных и предлагает персонализированные ответы — и все это без необходимости подключать дорогие векторные базы данных. Именно это и делает Memori — open-source решение для добавления памяти в LLM-приложения.
Проблема, которую решает Memori
Все мы сталкивались с ограничениями чат-ботов и AI-ассистентов: они «забывают» предыдущие беседы после завершения сессии. Классические подходы к решению этой проблемы либо требуют сложных интеграций с векторными базами данных (что дорого), либо хранят историю в сыром виде (что неэффективно).
Memori предлагает элегантное решение: использовать привычные SQL-базы для хранения и извлечения контекста, с интеллектуальной системой приоритезации важной информации.
Что такое Memori?
Memori — это легковесный Python-пакет, который:
- Добавляет постоянную память любым LLM (OpenAI, Anthropic и другим)
- Хранит данные в SQLite, PostgreSQL или MySQL
- Автоматически извлекает сущности и строит связи между ними
- Позволяет запрашивать историю взаимодействий обычными SQL-запросами
Главный козырь? Интеграция в одну строку:
memori.enable()
Ключевые возможности
1. Простота интеграции
Memori работает как промежуточный слой между вашим кодом и LLM API. После инициализации он автоматически перехватывает запросы, добавляя в них релевантный контекст из базы данных.
Пример минимальной настройки:
from memori import Memori
from openai import OpenAI
memori = Memori(database_connect="sqlite:///memory.db")
memori.enable() # Вот и вся магия!
client = OpenAI()
2. Гибкие режимы работы
Memori предлагает два основных режима:
- Conscious Mode — добавляет наиболее релевантные воспоминания перед каждым запросом
- Auto Mode — динамически ищет контекст для каждого конкретного вопроса
Можно использовать оба режима одновременно для максимальной эффективности.
3. Полный контроль над данными
В отличие от проприетарных решений, ваши данные остаются в вашей базе. Memori поддерживает:
- SQLite — для локальной разработки
- PostgreSQL/MySQL — для продакшена
- Экспорт данных в любой момент
Пример подключения к PostgreSQL:
memori = Memori(
database_connect="postgresql://user:pass@localhost/memori",
conscious_ingest=True
)
Как это работает под капотом?
Memori использует трехэтапный процесс:
- Перехват запроса — ваш вызов
client.chat.completions.create()сначала попадает в Memori - Поиск контекста — система ищет релевантные предыдущие диалоги
- Инъекция и сохранение — контекст добавляется к запросу, а новый диалог сохраняется
sequenceDiagram
Участник App
Участник Memori
Участник DB
Участник LLM
App->>Memori: Запрос к LLM
Memori->>DB: Поиск контекста
DB-->>Memori: Релевантные диалоги
Memori->>LLM: Запрос + контекст
LLM-->>Memori: Ответ
Memori->>DB: Сохранение диалога
Memori-->>App: Ответ LLM
Практические кейсы использования
Персональный ассистент с памятью
Memori идеально подходит для создания AI-ассистентов, которые помнят:
- Предпочтения пользователя
- Историю запросов
- Контекст предыдущих бесед
Пример из документации показывает, как создать ассистента для разработчика:
response = client.chat.completions.create(
model="gpt-4",
messages=[{"role": "user", "content": "Я использую FastAPI"}]
)
# Позже...
response = client.chat.completions.create(
model="gpt-4",
messages=[{"role": "user", "content": "Как добавить авторизацию?"}]
)
# Бот уже знает, что вы используете FastAPI!
Мультиагентные системы
Memori поддерживает разделение памяти между агентами, что полезно для:
- Customer support ботов
- Исследовательских агентов
- Систем совместной работы
Плюсы и минусы
Преимущества:
- До 90% экономии по сравнению с векторными базами
- Полная прозрачность хранения данных
- Поддержка большинства популярных LLM
Ограничения:
- Пока нет поддержки NoSQL баз данных
- Требуется Python 3.8+
Вывод: стоит ли пробовать?
Memori — отличное решение для разработчиков, которые:
- Хотят добавить память в свои LLM-проекты
- Ценят простоту и прозрачность
- Не хотят зависеть от дорогих проприетарных решений
Проект активно развивается, имеет подробную документацию и поддерживает множество интеграций. Если вы работаете с AI — определенно стоит попробовать!
Ссылки для старта:
P.S. Кстати, установка занимает всего пару секунд:
pip install memorisdk