← Blog·Privacidad

Cómo MONO aprende de ti sin enviar tus datos a nadie

·Equipo MONO·6 min de lectura

Cómo la mayoría de asistentes "aprenden"

ChatGPT, Copilot, Gemini — todos guardan tu historial de conversación en sus servidores. Usan ese historial para dos cosas: (a) darte contexto cuando regreses, (b) entrenar modelos futuros (excepto si pagas Enterprise y opt-out).

Cuando les dices "recuerda que mi mamá se llama Rosa", ese dato vive en la base de datos central de OpenAI o Google. Multi-tenant. Junto a la información de millones de otros usuarios. Una consulta SQL mal-filtrada, un empleado curioso, una orden judicial — todos son vectores de fuga.

La memoria de MONO: local, tuya

En MONO, tu memoria vive en SurrealDB corriendo en tu VPS. Tres tablas principales:

  • memory: hechos atómicos ("mamá se llama Rosa", "cumple 3 de mayo", "alergia al marisco").
  • entity: personas, lugares, empresas, proyectos (con relaciones).
  • topic: clusters temáticos autoemergentes (trabajo, salud, familia).

Cada una tiene índices vectoriales (HNSW) y de texto completo (BM25) sobre tu data. Cuando le dices a tu MONO "¿qué sé de mi mamá?", el agente busca en estas tablas en tu VPS, encuentra los hechos relacionados, y los usa como contexto para la respuesta.

Qué ve el LLM

Aquí viene el punto sutil. MONO usa Claude (Anthropic) o GPT (OpenAI) para generar respuestas. Esas llamadas van a la nube del proveedor. Entonces ¿qué datos se envían?

Solo el contexto de la petición actual. Si preguntas "¿qué sé de mi mamá?", el pipeline:

  1. Busca en tu memoria local — retorna 3-5 hechos relevantes (~300 tokens).
  2. Construye un prompt: "Usuario pregunta X. Contexto relevante: [hechos]. Responde."
  3. Envía el prompt a Claude. Claude genera respuesta. Conversación termina.

Claude no retiene ese prompt (política de Anthropic para API con Zero-Data-Retention). Los hechos envíados son mínimos (no tu historial completo). La memoria base completa nunca sale de tu VPS.

Pero ¿entonces igual sale al LLM?

Sí. Esa es la trade-off honesta. Si quieres cero salida a la nube, necesitas inferencia local — un modelo Llama 3.3 corriendo en tu propia VPS. Eso es posible pero requiere VPSs más grandes (16GB RAM+) y es más lento (tokens/seg inferior a la nube).

MONO está trabajando en soporte self-hosted para Llama 3.3 en la misma VPS. Para mediados de 2026, si configuras MONO en BYOK con un modelo local, tus conversaciones nunca tocan la nube. Cero datos salen.

Por ahora, el default es Claude con política de no-retención. Para la mayoría de usuarios, el trade-off razonable: tu historial completo vive local (gran ventaja vs ChatGPT), y la petición individual pasa por un proveedor con contrato de privacidad (aún mejor que multi-tenant).

Qué aprende tu MONO con el tiempo

Porque la memoria persiste entre conversaciones, tu MONO acumula:

  • Nombres y cumpleaños de tu círculo.
  • Dietas, alergias, preferencias.
  • Rutinas (hora de gym, hora de bed).
  • Patrones de gasto por categoría.
  • Proyectos en curso y su estado.
  • Contraseñas y docs (encriptados, Bóveda skill).
  • Notas y reflexiones (Memoria skill).

Con 3 meses de uso, MONO sabe más de tu día-a-día que la mayoría de tu familia. Por eso la arquitectura de privacidad importa tanto: lo que un asistente útil se vuelve, otros servicios llaman "breach catastrófico".

La versión honesta

MONO no es 100% offline todavía. Usa LLMs de la nube para respuestas. Pero: (1) tu historial completo nunca se sube, solo fragmentos por request, (2) los proveedores tienen política de no-retención, (3) tu VPS es solo tuya — no multi-tenant. Comparado con ChatGPT donde todo vive en la nube multi-tenant de OpenAI, el delta es grande. Y vamos hacia Llama local para cerrar el último gap.