100% local · LGPD compliant · MCP-native

Memória persistente para
agentes de IA

PostgreSQL + pgvector com confidence scoring, memory graph e air-gap real. Seus dados nunca saem da sua infraestrutura.

Por que OmniEngram

Construído para times que levam privacidade e confiabilidade a sério.

🔒

Air-gap real

Embeddings locais via bge-m3 (1024-dim). Zero chamadas para OpenAI, Cohere ou qualquer API externa. Seus dados ficam no seu servidor.

🎯

Confidence scoring

Cada memória recebe um score de confiança calculado via Laplace smoothing. Agentes sabem no que confiar e quando pedir confirmação.

🧠

LLM local como tool

qwen3:4b via Ollama integrado como memory_intelligence_query. Raciocínio multi-etapa sobre memórias sem enviar dados para fora.

🔬

Memory Graph

Relações entre memórias com PostgreSQL puro. Sem Neo4j, sem complexidade extra. Consultas via /graph/{project}.

MCP-native

Protocolo Model Context Protocol nativo. Funciona com Claude Code, Claude Desktop, Cursor e qualquer cliente MCP sem adaptadores.

💰

Custo fixo ~R$100/mês

VPS + PostgreSQL + Ollama. Sem cobrança por query, por embedding ou por GB. Escala previsível vs concorrentes SaaS.

Como funciona

Três passos para agentes de IA com memória persistente.

Deploy com Docker

Suba o stack com docker compose up -d. PostgreSQL com pgvector, Ollama com bge-m3 e a API FastAPI ficam prontos em minutos.

Conecte via MCP

Configure o endpoint MCP no seu cliente (Claude Code, Cursor, etc). As tools save_memory, search_memories e memory_intelligence_query ficam disponíveis imediatamente.

Agentes aprendem

A cada interação, o agente salva contexto, decisões e outcomes. O curador automático consolida memórias, resolve contradições e ajusta confidence scores.

Casos de uso enterprise

Projetado para ambientes regulados onde dados não podem vazar.

Financeiro

BACEN & compliance

Agentes de atendimento que lembram histórico do cliente sem enviar dados para APIs externas. Auditoria completa via memory graph.

Saúde

CFM & prontuários

Assistentes médicos com memória de protocolos e histórico clínico. Dados ficam no datacenter do hospital.

Jurídico

LGPD & contratos

Agentes jurídicos que acumulam jurisprudência e contexto de casos sem risco de vazamento para provedores de IA.

DevOps

Contexto de infra

Agentes de operação que lembram incidentes, runbooks e decisões de arquitetura. Confidence scoring prioriza informação confiável.

OmniEngram vs concorrentes

FeatureOmniEngramMem0ZepSupermemory
Air-gap real (zero API externa)
Confidence score por memória
LLM local integrado
MCP-native
Memory Graph
Self-hosted
Custo fixo (sem cobrança por volume)

Quick Start

Do zero à primeira memória em 3 minutos.

terminal
# 1. Clone e suba o stack
git clone https://github.com/jessefreitas/omniengram.git
cd omniengram && docker compose up -d

# 2. Verifique que está rodando
curl http://localhost:8765/health

# 3. Salve sua primeira memória
curl -X POST http://localhost:8765/context \
  -H "Content-Type: application/json" \
  -d '{"project":"meu-projeto","content":"Deploy na AWS us-east-1"}'

# 4. Configure no Claude Code (~/.claude/settings.json)
{
  "mcpServers": {
    "omniengram": {
      "type": "http",
      "url": "http://localhost:8765/mcp"
    }
  }
}