Proyecto Autopilot: Por qué me despedí como Community Manager para construir un Ejército de agentes de IA
Source: Dev.to
Introducción
En el mundo de los blogs técnicos y la ingeniería, a menudo nos enfrentamos a la Paradoja del Constructor: pasamos 40 horas perfeccionando un tema concreto, definiendo una arquitectura o depurando pequeños detalles técnicos, pero no encontramos 15 minutos para promocionar el trabajo de manera efectiva en redes sociales.
Con Datalaria el contenido está listo y la arquitectura optimizada, pero la distribución sufre por culpa del cuello de botella principal… yo.
Decisión estratégica
He decidido “despedirme” del rol de Community Manager, que nunca llegué a ejercer. En lugar de contratar una agencia, construiré una y experimentaré con los tan de moda agentes de IA.
Proyecto Autopilot
Una serie de 5 partes donde construiremos, en vivo y en público, un sistema autónomo de agentes de IA que:
- Lee este blog y lo analiza al detalle.
- Prepara el contenido para su promoción.
- Lo distribuye en redes sociales mientras yo me dedico a otras tareas.
Principios clave
- Dogfooding: usaremos nuestras propias herramientas, no servicios de terceros como Buffer o Hootsuite.
- Tecnologías: IA generativa y pipelines CI/CD.
- Objetivo final: transformar el proceso de blogging. Un
git pushdesencadenará una cadena de agentes que analizan, crean y distribuyen contenido.
Arquitectura propuesta
El sistema se ejecutará completamente dentro de GitHub Actions, siguiendo un flujo orientado a eventos:
- Trigger (GitHub Actions) – La automatización se ejecuta solo cuando publico, sin necesidad de servidores permanentes.
- Cerebro (Google Gemini 3 Pro) – Modelo con gran ventana de contexto, capaz de leer tutoriales técnicos completos sin “olvidar” el principio.
- Orquestador (CrewAI) – Permite asignar roles específicos a agentes, como “Experto en Twitter Cínico” o “Estratega Corporativo”.
graph TD
A[GitHub Push] --> B[GitHub Actions Trigger]
B --> C[Gemini 3 Pro (Cerebro)]
C --> D[CrewAI (Orquestador)]
D --> E[Agentes Especializados]
E --> F[Generación y Distribución de Contenido]
Validación preliminar
Antes de escribir el pipeline final, validé la hipótesis central: ¿Puede Gemini entender realmente la estructura de mis posts en Hugo?
Utilicé un prompt de sistema diseñado para actuar como un Editor Técnico Senior, con el objetivo de extraer datos estructurados (JSON) de los archivos Markdown crudos.
Resultado:
- Identificación correcta del stack tecnológico.
- Generación de un resumen.
- Extracción de “Ángulos Provocativos” para marketing.
Este JSON estructurado alimentará a los agentes redactores en la siguiente fase.
Serie de posts
| Nº | Título | Descripción |
|---|---|---|
| 1 | La Estrategia (estás aquí) | El plan maestro y la arquitectura. |
| 2 | El Cerebro | Configuración de Gemini Pro y CrewAI para leer y “entender” Markdown. |
| 3 | Los Creativos | Ingeniería de prompts para crear personalidades distintas para LinkedIn vs. Twitter. |
| 4 | La Pesadilla de las APIs | Desafíos de conectar con APIs de redes sociales. |
| 5 | El Orquestador Final | Integración CI/CD con GitHub Actions para un despliegue totalmente automatizado. |
Hipótesis de la automatización
- Consistencia: Un bot no se cansa ni olvida publicar.
- Contexto: Agentes especializados con roles claros aportan valor frente a una IA genérica.
- Código como apalancamiento: Una vez montados, los agentes funcionarán indefinidamente.
Si el experimento falla, documentaré el fallo. Si funciona, Datalaria será un blog promocionado por sí mismo mediante IA mientras su autor escribe el siguiente post.
Próximos pasos
¿Listo para ver el código? En el próximo post abriremos nuestro IDE para configurar el Agente Lector usando Python y la API de Gemini.