← Volver al blog
Build in Public 25 feb 2026

Mi Cerebro IA, Un Mes Después: Qué Cambió

Matteo Lombardi
25 feb 2026

Hace un mes publiqué un video mostrando mi workspace IA. Una terminal. Memoria persistente. Agentes que saben quién soy. Un setup de un clic que cualquiera podía instalar.

Ese setup ya es obsoleto.

No porque estuviera mal. Porque usarlo todos los días expuso todo lo que no podía hacer. Así que reescribí la mayor parte — el archivo brain, el roster de agentes, toda la capa de enforcement.

Esto es lo que cambió, lo que se rompió, y lo que haría diferente si empezara hoy.


Los números

Un mes de uso diario. Costo total: ~$100/mes (suscripción Claude Max).

Qué17 de enero19 de febreroCambio
Agentes~1622 core + 14 subagentes+20
Integraciones MCP3-413++10
Skills (auto-loading)025nuevo
Hooks (enforcement)04nuevo
Archivos brain1 (407 líneas)7 archivos modulares-80% tokens
Reglas de config655179-73%

Esos números no cuentan la historia completa. Los cambios reales fueron estructurales.


Reescritura 1: La cirugía del cerebro

El brain original era un solo archivo. brain/context.md. 407 líneas. Todo — revenue, deals, proyectos, estado del contenido, notas técnicas — en un único documento.

Cada sesión empezaba cargando el archivo entero. Cada sesión quemaba tokens con contexto que no era relevante. ¿Trabajando en contenido? De todas formas estás cargando datos del pipeline de deals. ¿Debugging de código? Aquí tienes tu calendario de contenido de regalo. El modelo se ahogaba en ruido antes de que yo le hiciera una sola pregunta.

Así que lo dividí.

brain/
├── context.md          ← índice de 60 líneas (carga siempre)
└── contexts/
    ├── stratega.md     ← empresa, posicionamiento, precios
    ├── projects.md     ← trabajo activo con clientes
    ├── building.md     ← productos en construcción
    ├── content.md      ← estado del motor de contenido
    ├── academy.md      ← Stratega School
    └── side.md         ← proyectos paralelos

Ahora /start lee el índice de 60 líneas, pregunta en qué estamos trabajando, y carga solo el archivo de contexto relevante. La regla de decisión es simple: un archivo por área de trabajo, cargado bajo demanda, nunca todos a la vez.

El uso de tokens bajó alrededor del 80%. Pero la diferencia real no es el costo — es la calidad del output. La IA dejó de darme respuestas genéricas porque dejó de procesar contexto genérico. El mismo modelo. Los mismos prompts. Respuestas muchísimo mejores.

El primer intento de división no funcionó. Corté el archivo por tema pero dejé referencias cruzadas en todas partes — el contexto de contenido seguía mencionando deals, el contexto de proyectos seguía referenciando deadlines de contenido. Cada archivo tenía que ser autocontenido. Eso requirió una segunda pasada.

La lección que sigo reaprendiendo: el sistema que funciona el día 1 se rompe el día 30. No porque fuera malo. Porque los patrones de uso revelan lo que la arquitectura no puede manejar.


Reescritura 2: Consolidación de agentes

Tenía 27 agentes. Algunos eran redundantes. El agente Matteo Voice escribía copy con mi voz. El Roaster lo destrozaba y le ponía nota. Agentes separados, trabajos que se solapaban. Así que los fusioné en un único Copy Critic que hace ambas cosas.

Lo mismo pasó en otros sitios. El agente Startupper quedó absorbido en el “Founder Mode” del CTO. El Pretotyper se convirtió en un protocolo dentro del Growth Hacker.

27 agentes se convirtieron en 22. La regla que uso ahora: ¿necesita este agente su propia memoria y personalidad que entraría en conflicto con la de otro agente? Si la respuesta es sí, es un agente. Si no, es un protocolo dentro de un agente existente.

Luego añadí subagentes — especialistas ligeros que corren en paralelo sin tocar la conversación principal. Un CI Researcher que hace tres análisis de competidores simultáneamente. Un Code Reviewer que revisa cambios después de cada edición. Un Content Drafter que escribe posts de LinkedIn en segundo plano.

22 agentes core + 14 subagentes = 36 en total. Pero la superficie real es más pequeña porque el routing es automático ahora. Lo que me lleva a la mejora real.


La capa de enforcement

Esta es la parte que lo cambió todo, y es invisible.

Esto es lo que solía pasar: empezaba una tarea técnica — debugging de un workflow, configurando un servidor MCP — y me olvidaba de cargar mi agente CTO primero. El output era genérico. Perdía 10 minutos antes de darme cuenta de que el agente no estaba cargado, y entonces reiniciaba.

Ahora un hook se dispara antes de cada interacción. Comprueba si la tarea es técnica. Si lo es, carga el protocolo CTO en silencio. Sin elección. Sin posibilidad de olvidarlo. Ni siquiera sabía que se disparaba hasta que miré los logs.

# Lo que pasa antes de que yo escriba algo:
UserPromptSubmit → agent-call-enforcer.py → detecta tarea técnica → carga protocolo CTO

Un segundo hook se dispara cuando termina una sesión. Escribe un resumen en el knowledge graph — automáticamente. Sin guardar contexto de forma manual. El sistema lo recuerda, se lo diga o no.

Las skills reemplazaron los comandos estáticos. El /start antiguo era un archivo markdown que corría igual cada vez. El nuevo /start es una skill que se auto-carga según el contexto, enruta al módulo brain correcto, consulta el memory graph en busca de pendientes, y se adapta a qué dispositivo estoy usando.

La diferencia: los comandos son cosas que yo invoco. Las skills son cosas que el sistema invoca por su cuenta cuando son relevantes.


Las integraciones que realmente importan

El video original tenía Netlify. Quizás una o dos conexiones MCP más.

Ahora hay 13:

IntegraciónQué haceImpacto
Google Workspace72 herramientas: Drive, Sheets, Gmail, Docs, CalendarGame-changer
HubSpotCRM completo: empresas, contactos, dealsGame-changer
n8nCrear, ejecutar, debuggear workflows de automatizaciónGame-changer
Meta BusinessMonitoreo de campañas publicitariasAlto
Stratega MemoryKnowledge graph entre sesionesAlto
DockerGestión de contenedoresMedio
PlaywrightAutomatización de navegadorMedio
Brave SearchBúsqueda web dentro de sesionesMedio
Context7Documentación de libreríasMedio
NetlifyDesplegar sitiosMedio
NotionNotas de reuniones, bases de datosBajo
SlackNotificacionesBajo

Las tres primeras cambiaron mi flujo de trabajo diario. Google Workspace solo — buscar emails, leer hojas de cálculo, actualizar docs, crear eventos de calendario — todo desde la terminal. HubSpot es lo que hizo posible limpiar 450 empresas hasta dejarlas en 74 en una tarde. n8n significa que construyo y debuggeo workflows de automatización sin abrir un navegador.

La que eliminé: GitHub MCP. La reemplacé por completo con el CLI de gh. Más ligero, más fiable, sin overhead de MCP. No todo necesita ser una integración. A veces una herramienta de línea de comandos es mejor.


Lo que realmente construí con esto

Esto no es teoría. Esto es lo que pasó por el sistema mejorado en un mes:

Ventas — Después de cada llamada, la transcripción pasa por mi agente de head of sales. Redacta el email de seguimiento con mi voz, sugiere próximos pasos basados en scoring MEDDIC, y actualiza el CRM. Lo que antes tomaba 30 minutos ahora toma 5.

Limpieza del CRM — 450 empresas en HubSpot, ~35% de calidad de datos. Claude Code conectado via MCP las limpió hasta 74 en una tarde. Casi elimina dos empresas con deals activos en el proceso. Escribí un post completo sobre ese.

Inteligencia competitiva — Antes de una llamada con un prospecto, el agente de CI mapea su mercado, identifica competidores, muestra noticias recientes. Tres análisis en profundidad corriendo simultáneamente via subagentes.

Este sitio web — Cuatro iteraciones de homepage, un rediseño completo rechazado, un consejo de guerra de tres agentes sobre la página del blog. Log completo del build aquí.

Contenido — Cada post de LinkedIn pasa por este sistema. El motor de contenido extrae momentos compartibles de mi trabajo diario. El copy critic destroza mis borradores y los reescribe con mi voz.


Lo que se rompió

Credenciales por todas partes. En un momento tenía API keys en .mcp.json (trackeado por git), en settings.local.json, en archivos brain. Una auditoría de seguridad después: todo consolidado en un único archivo MASTER.env, credenciales eliminadas de todos los archivos trackeados, reglas de settings recortadas de 655 a 179.

Si estás empezando: centraliza las credenciales desde el día 1. No las disperses.

18 días de trabajo sin commit. Estaba tan enfocado en construir que me olvidé de hacer push. 319 archivos nuevos, 82 modificados. A un crash de perderlo todo. Ahora un daemon launchd hace auto-commit y push a las 23:00 cada día. El sistema me protege de mí mismo.

Bloat de agentes. El salto de 16 a 27 hizo el routing confuso. Tenía sesiones donde dos agentes daban consejos contradictorios porque sus dominios se solapaban. La consolidación a 22 con subagentes claros lo solucionó. Cada agente necesita un solo trigger. Si tienes que pensar a cuál llamar, tienes demasiados.

El mantenimiento de contexto es un trabajo. Los archivos brain necesitan actualizarse. El knowledge graph necesita poda. El contexto obsoleto produce output obsoleto. Gasto 10-15 minutos por semana revisando y limpiando contexto. No es glamuroso, pero es la diferencia entre una IA que sabe lo que está pasando y una que está adivinando.


El setup actualizado

El install de un clic del video original sigue funcionando:

curl -fsSL https://raw.githubusercontent.com/matteo-stratega/claude-workspace-template/main/setup.sh | bash

Ahora incluye: estructura de brain modular, sistema de skills con auto-loading, ejemplos de hooks para enforcement y auto-save, plantilla de agente con el patrón consolidado, y comandos /start y /close actualizados.

Lo que NO está en el repo: mis 22 agentes (codifican mi negocio, no una plantilla) y las configuraciones MCP (necesitan tus propias API keys). El repo es el esqueleto. Tú pones el músculo.

Descárgalo aquí — y si construyes algo con él, quiero verlo.


No sobreconstruyas el día uno

Cada agente e integración que añadí vino de un problema específico que encontré — no de una plantilla que copié.

No necesitas 22 agentes y 13 integraciones MCP para empezar. Necesitas CLAUDE.md, brain/context.md, y /start. Úsalo una semana. Siente los puntos de dolor. Luego añade exactamente lo que necesitas.

El sistema no está terminado. No va a estarlo. Ese es el punto — crece con el trabajo.


Parte 1: Construi un Cerebro IA que Gestiona Todo Mi Negocio

Mira el setup original: Mi Cerebro IA: Setup de 1 Clic

Descarga el repo: claude-workspace-template


Preguntas Frecuentes

¿Este setup es lo suficientemente estable para trabajo real?

Gestiono todo mi negocio con él — entregables de clientes, ventas, contenido, inteligencia competitiva. Se rompe aproximadamente una vez a la semana. El daemon de auto-commit y el brain modular significan que nada catastrófico pasa cuando algo falla. Lo arreglas, el contexto se preserva, sigues adelante.

¿Cuánto cuesta mantener esto?

La suscripción Claude Max son $100/mes. Los servidores MCP son gratuitos — se conectan a servicios que ya pagas. Los modelos locales (Ollama) son gratuitos. Costo total de infraestructura más allá de Claude: prácticamente cero si ya tienes los servicios.

¿Cuál es el error más grande que la gente comete con este tipo de setup?

Sobreconstruir el día uno. Empieza con CLAUDE.md, brain/context.md, y /start. Úsalo una semana. Siente dónde se rompe. Luego añade exactamente lo que necesitas. Cada agente que tengo existe porque algo específico era doloroso sin él.