Memori: Дайте вашему ИИ долговременную память без сложностей

12 Dec, 2025

Представьте, что ваш чат-бот или AI-ассистент помнит все предыдущие диалоги с пользователем, извлекает нужный контекст из базы данных и предлагает персонализированные ответы — и все это без необходимости подключать дорогие векторные базы данных. Именно это и делает Memori — open-source решение для добавления памяти в LLM-приложения.

Проблема, которую решает Memori

Все мы сталкивались с ограничениями чат-ботов и AI-ассистентов: они «забывают» предыдущие беседы после завершения сессии. Классические подходы к решению этой проблемы либо требуют сложных интеграций с векторными базами данных (что дорого), либо хранят историю в сыром виде (что неэффективно).

Memori предлагает элегантное решение: использовать привычные SQL-базы для хранения и извлечения контекста, с интеллектуальной системой приоритезации важной информации.

Что такое Memori?

Memori — это легковесный Python-пакет, который:

  • Добавляет постоянную память любым LLM (OpenAI, Anthropic и другим)
  • Хранит данные в SQLite, PostgreSQL или MySQL
  • Автоматически извлекает сущности и строит связи между ними
  • Позволяет запрашивать историю взаимодействий обычными SQL-запросами

Главный козырь? Интеграция в одну строку:

memori.enable()

Ключевые возможности

1. Простота интеграции

Memori работает как промежуточный слой между вашим кодом и LLM API. После инициализации он автоматически перехватывает запросы, добавляя в них релевантный контекст из базы данных.

Пример минимальной настройки:

from memori import Memori
from openai import OpenAI

memori = Memori(database_connect="sqlite:///memory.db")
memori.enable()  # Вот и вся магия!

client = OpenAI()

2. Гибкие режимы работы

Memori предлагает два основных режима:

  • Conscious Mode — добавляет наиболее релевантные воспоминания перед каждым запросом
  • Auto Mode — динамически ищет контекст для каждого конкретного вопроса

Можно использовать оба режима одновременно для максимальной эффективности.

3. Полный контроль над данными

В отличие от проприетарных решений, ваши данные остаются в вашей базе. Memori поддерживает:

  • SQLite — для локальной разработки
  • PostgreSQL/MySQL — для продакшена
  • Экспорт данных в любой момент

Пример подключения к PostgreSQL:

memori = Memori(
    database_connect="postgresql://user:pass@localhost/memori",
    conscious_ingest=True
)

Как это работает под капотом?

Memori использует трехэтапный процесс:

  1. Перехват запроса — ваш вызов client.chat.completions.create() сначала попадает в Memori
  2. Поиск контекста — система ищет релевантные предыдущие диалоги
  3. Инъекция и сохранение — контекст добавляется к запросу, а новый диалог сохраняется
sequenceDiagram
    Участник App
    Участник Memori
    Участник DB
    Участник LLM
    
    App->>Memori: Запрос к LLM
    Memori->>DB: Поиск контекста
    DB-->>Memori: Релевантные диалоги
    Memori->>LLM: Запрос + контекст
    LLM-->>Memori: Ответ
    Memori->>DB: Сохранение диалога
    Memori-->>App: Ответ LLM

Практические кейсы использования

Персональный ассистент с памятью

Memori идеально подходит для создания AI-ассистентов, которые помнят:

  • Предпочтения пользователя
  • Историю запросов
  • Контекст предыдущих бесед

Пример из документации показывает, как создать ассистента для разработчика:

response = client.chat.completions.create(
    model="gpt-4",
    messages=[{"role": "user", "content": "Я использую FastAPI"}]
)

# Позже...
response = client.chat.completions.create(
    model="gpt-4",
    messages=[{"role": "user", "content": "Как добавить авторизацию?"}]
)
# Бот уже знает, что вы используете FastAPI!

Мультиагентные системы

Memori поддерживает разделение памяти между агентами, что полезно для:

  • Customer support ботов
  • Исследовательских агентов
  • Систем совместной работы

Плюсы и минусы

Преимущества:

  • До 90% экономии по сравнению с векторными базами
  • Полная прозрачность хранения данных
  • Поддержка большинства популярных LLM

Ограничения:

  • Пока нет поддержки NoSQL баз данных
  • Требуется Python 3.8+

Вывод: стоит ли пробовать?

Memori — отличное решение для разработчиков, которые:

  1. Хотят добавить память в свои LLM-проекты
  2. Ценят простоту и прозрачность
  3. Не хотят зависеть от дорогих проприетарных решений

Проект активно развивается, имеет подробную документацию и поддерживает множество интеграций. Если вы работаете с AI — определенно стоит попробовать!

Ссылки для старта:

P.S. Кстати, установка занимает всего пару секунд:

pip install memorisdk