Más allá del prompt perfecto. Formando desarrolladores, no operadores de IA
Source: Dev.to
Hola a todos.
Últimamente, las redes sociales y las plataformas de prompts se han llenado de una especie de mercado mágico. Un sitio como Promptfy promete cientos de “recetas listas para usar” que, con solo copiar y pegar, resuelven problemas complejos de IA. Y no hablemos de LinkedIn o X, donde un post con un “prompt infalible” para generar código Python acumula likes como si fuera el santo grial. Entiendo el atractivo. En un mundo donde se valora cada vez más producir más en menos tiempo, ¿quién no querría un atajo directo a la productividad?
Pero aquí va mi preocupación, surgida de años observando cómo se integran las herramientas en el flujo de desarrollo. ¿Y si estos atajos están formando operadores de IA en lugar de desarrolladores reales? Especialmente para los juniors, que entran en este ecosistema con ojos brillantes pero sin el bagaje para cuestionar. Copiar un prompt puede ser un salvavidas temporal; el problema surge cuando se convierte en muleta permanente. Puedes estamparte profesionalmente al primer tropiezo con un caso no cubierto por la receta.
La habilidad que no se desarrolla
Imaginad a un cocinero que sigue una receta al pie de la letra. Con ingredientes frescos y el horno a punto, sale un plato decente. Ahora, cambiad el aceite por mantequilla rancia o el horno se apaga a mitad. ¿Qué hace? Si solo sabe recitar pasos, está perdido. Ese es el junior que copia prompts: un cocinero eficiente en condiciones ideales, pero sin el instinto de un chef para improvisar.
El problema es que, con el tiempo, dejas de entrenar las habilidades que de verdad importan:
-
Descomposición del problema
Un prompt efectivo no nace de la nada. Requiere traducir un requisito ambiguo del mundo real en instrucciones precisas. Copiar salta este paso. El junior no aprende a fraccionar el problema en capas: contexto, restricciones, salida esperada. -
Pensamiento crítico ante la caja negra
Los LLMs son potentes, pero alucinan. Un prompt copiado genera código SQL que parece perfecto… hasta que en producción falla por una validación omitida. Sin el hábito de cuestionar – “¿Por qué el modelo eligió este JOIN? ¿Qué asume sobre el esquema?” – el desarrollador acepta la salida como verdad absoluta y no desarrolla la intuición que salva proyectos. -
Iteración como diálogo
La creación de un prompt debería ser un diálogo iterativo con el modelo. Empiezas con una versión cruda, ves la respuesta, ajustas el contexto y corriges sesgos. Ahí es donde ocurre el aprendizaje real y entiendes las manías del modelo. Copiar es saltarse el ensayo‑error; es intentar jugar la final sin entrenamiento. -
Modelo mental del LLM
Al final, no se trata solo de prompts. Se trata de mapear el “porqué” del comportamiento del modelo, sus sesgos en datos geográficos para un SIG, o cómo maneja ambigüedades en español técnico. Sin esto, el junior corre el riesgo de quedar anclado en la superficie sin ver la estructura debajo.
He visto esto antes. Recordad el salto de C a Java. El Garbage Collector abstrajo la gestión de memoria. Los juniors producían código rápido sin malloc ni free. Pero el senior que diagnostica un OutOfMemoryError en un sistema con millones de objetos sabe que el conocimiento fundamental no se abstrae. Las recetas de prompts son el nuevo GC: aceleran el 80 % fácil, pero en el 20 % duro te dejan expuesto.
Hacia la ingeniería de prompts real
No pido renunciar a las recetas. Úsalas como punto de partida, no como destino. La alternativa es tratar el prompting como ingeniería: diseñar instrucciones, no solo escribirlas. Os detallo mi proceso.
Paso 1 – La meta‑pregunta
Antes de pedirle al LLM que resuelva tu problema, pídele que te ayude a formularlo.
Ejemplo:
“Ayúdame a estructurar una petición clara para depurar un OutOfMemory en un plugin Java de gvSIG desktop. Incluye contexto sobre el heap, posibles fugas y salida en JSON para automatizar.”
Esto obliga a descomponer: ¿Qué sabes? ¿Qué asumes? ¿Qué verificas? Es como un pair programming con el modelo, pero tú diriges.
Paso 2 – Validación cruzada
Una vez armado el borrador, somételo a escrutinio. Copia el prompt en otro LLM (Gemini, Claude, DeepSeek, etc.) y pide:
“Analiza esta instrucción. ¿Qué ambigüedades ves? ¿Qué sesgos introduce? Sugiere refinamientos.”
Es la revisión de código para prompts. Detecta fallos tempranos, como suposiciones culturales en datos GIS valencianos que un modelo global puede ignorar.
Paso 3 – Síntesis del arquitecto
Con el feedback en mano, tú decides. Integra, descarta, ajusta. Añade reglas explícitas:
- “Siempre valida la salida contra el esquema PostgreSQL.”
- “Responde solo en JSON, sin prosa.”
Aquí el humano brilla. Eres el director que orquesta la salida para que encaje en tu sistema real.
Prueba esto en un problema pequeño. Verás cómo el “baile” revela capas que una receta ignora y, de paso, construyes ese mapa mental que te hace senior.
Formemos arquitectos, no recaderos
La productividad no nace de una biblioteca de prompts copiados. Nace de saber construir el prompt adecuado para un problema nuevo. Ese es el valor que justifica tu asiento en la mesa de seniors.
A los mentores y seniors
No demos pescados envueltos en prompts bonitos. Enseñemos a pescar. Con meta‑preguntas, validaciones y síntesis, guiemos a los juniors hacia la maestría, no la dependencia.
A los juniors
Resistid la tentación del atajo. El camino lento de entender el “porqué” de una instrucción es el que os convertirá en profesionales capaces de afrontar cualquier desafío, incluso cuando la receta ya no exista.
Reflexiones sobre el uso de LLMs en arquitectura
Os hará infinitamente más valiosos que el que solo copia y pega.
Preguntad, iterad, cuestionad. El LLM es herramienta. Vosotros, arquitectos.
Al final, el objetivo no es coleccionar respuestas. Es dominar el arte de hacer preguntas.
Si os resuena, probad el método en vuestro próximo reto. Y contadme en los comentarios:
- ¿Habéis caído en la trampa de las recetas?
- ¿Qué os sacó de ahí?
Un saludo.
Este artículo es parte de mi investigación personal sobre arquitectura e inteligencia artificial.
Puedes encontrar más reflexiones y análisis técnicos en mi sitio personal: jjdelcerro.github.io/es
