PostgreSQL + pgvector com confidence scoring, memory graph e air-gap real. Seus dados nunca saem da sua infraestrutura.
Construído para times que levam privacidade e confiabilidade a sério.
Embeddings locais via bge-m3 (1024-dim). Zero chamadas para OpenAI, Cohere ou qualquer API externa. Seus dados ficam no seu servidor.
Cada memória recebe um score de confiança calculado via Laplace smoothing. Agentes sabem no que confiar e quando pedir confirmação.
qwen3:4b via Ollama integrado como memory_intelligence_query. Raciocínio multi-etapa sobre memórias sem enviar dados para fora.
Relações entre memórias com PostgreSQL puro. Sem Neo4j, sem complexidade extra. Consultas via /graph/{project}.
Protocolo Model Context Protocol nativo. Funciona com Claude Code, Claude Desktop, Cursor e qualquer cliente MCP sem adaptadores.
VPS + PostgreSQL + Ollama. Sem cobrança por query, por embedding ou por GB. Escala previsível vs concorrentes SaaS.
Três passos para agentes de IA com memória persistente.
Suba o stack com docker compose up -d. PostgreSQL com pgvector, Ollama com bge-m3 e a API FastAPI ficam prontos em minutos.
Configure o endpoint MCP no seu cliente (Claude Code, Cursor, etc). As tools save_memory, search_memories e memory_intelligence_query ficam disponíveis imediatamente.
A cada interação, o agente salva contexto, decisões e outcomes. O curador automático consolida memórias, resolve contradições e ajusta confidence scores.
Projetado para ambientes regulados onde dados não podem vazar.
Agentes de atendimento que lembram histórico do cliente sem enviar dados para APIs externas. Auditoria completa via memory graph.
Assistentes médicos com memória de protocolos e histórico clínico. Dados ficam no datacenter do hospital.
Agentes jurídicos que acumulam jurisprudência e contexto de casos sem risco de vazamento para provedores de IA.
Agentes de operação que lembram incidentes, runbooks e decisões de arquitetura. Confidence scoring prioriza informação confiável.
| Feature | OmniEngram | Mem0 | Zep | Supermemory |
|---|---|---|---|---|
| Air-gap real (zero API externa) | ✓ | ✗ | ✗ | ✗ |
| Confidence score por memória | ✓ | ✗ | ✗ | ✗ |
| LLM local integrado | ✓ | ✗ | ✗ | ✗ |
| MCP-native | ✓ | ✗ | ✗ | ✓ |
| Memory Graph | ✓ | ✓ | ✓ | ✗ |
| Self-hosted | ✓ | ✓ | ✓ | ✓ |
| Custo fixo (sem cobrança por volume) | ✓ | ✗ | ✗ | ✓ |
Do zero à primeira memória em 3 minutos.
# 1. Clone e suba o stack git clone https://github.com/jessefreitas/omniengram.git cd omniengram && docker compose up -d # 2. Verifique que está rodando curl http://localhost:8765/health # 3. Salve sua primeira memória curl -X POST http://localhost:8765/context \ -H "Content-Type: application/json" \ -d '{"project":"meu-projeto","content":"Deploy na AWS us-east-1"}' # 4. Configure no Claude Code (~/.claude/settings.json) { "mcpServers": { "omniengram": { "type": "http", "url": "http://localhost:8765/mcp" } } }