Ir al contenido principal
Desarrollo & IA

Prompt Chaining: Encadenamiento de Prompts con Ejemplos Prácticos [2026]

1 de febrero de 2026
15 min

Prompt Chaining: qué es el encadenamiento de prompts y cómo usarlo. Ejemplos prácticos de cadenas de prompts para ChatGPT, Claude y agentes IA. Guía completa en español.

Javier Santos

Especialista en IA & Machine Learning

📧¿Te gusta este contenido?

Únete a 547+ profesionales que reciben tips de IA cada semana. Sin spam, cancela cuando quieras.

Prompt Chaining: Encadenamiento de Prompts con Ejemplos Prácticos [2026]

🎓 ¿Quieres dominar técnicas avanzadas de IA? En La Escuela de IA te enseño Prompt Chaining y otras técnicas que realmente funcionan. Únete gratis y también sígueme en YouTube.

TL;DR - Resumen Rápido

  • Prompt Chaining (encadenamiento de prompts) es una técnica donde la salida de un prompt se convierte en la entrada del siguiente
  • Permite resolver tareas complejas dividiéndolas en pasos más pequeños y manejables
  • Es la base de los agentes de IA modernos como AutoGPT, Claude Computer Use y MoltBot
  • Mejora la precisión hasta un 40% comparado con prompts únicos en tareas complejas
  • Se puede implementar manualmente o con frameworks como LangChain, n8n o CrewAI


¿Qué es el Prompt Chaining (Encadenamiento de Prompts)?

El Prompt Chaining o encadenamiento de prompts es una técnica de ingeniería de prompts donde conectas múltiples prompts en secuencia, usando la salida de uno como entrada del siguiente.

Imagina una cadena de montaje donde cada estación hace una tarea específica:

code
1[Prompt 1] → [Resultado 1] → [Prompt 2] → [Resultado 2] → [Prompt 3] → [Resultado Final]

En lugar de pedirle a la IA que haga todo de una vez (lo que suele dar resultados mediocres), divides la tarea en pasos más pequeños y controlables.

¿Por qué funciona mejor?

Los LLMs como GPT-4 y Claude tienen limitaciones cuando intentan hacer muchas cosas a la vez:

EnfoqueVentajasDesventajas
Prompt únicoRápido, simpleMenos preciso, difícil de debuggear
Prompt ChainingMás preciso, controlableMás lento, requiere más tokens
Estudios de Google Research demuestran que dividir tareas complejas en subtareas mejora la precisión entre un 20% y 40%.


Ejemplos de Encadenamiento de Prompts

Ejemplo 1: Análisis de Documento

Tarea: Analizar un contrato legal y generar un resumen ejecutivo.

Sin encadenamiento (prompt único):

code
1Analiza este contrato, extrae las cláusulas importantes, identifica riesgos y genera un resumen ejecutivo con recomendaciones.

Con encadenamiento (cadena de 4 prompts):

Prompt 1 - Extracción:

code
1Lee este contrato y extrae todas las cláusulas en formato de lista numerada.
2Solo extracción, sin análisis.
3 
4Contrato: [contenido]

Prompt 2 - Clasificación:

code
1Clasifica cada cláusula de esta lista en una de estas categorías:
2- Obligaciones del cliente
3- Obligaciones del proveedor
4- Condiciones de pago
5- Penalizaciones
6- Confidencialidad
7- Terminación
8 
9Cláusulas: [resultado del Prompt 1]

Prompt 3 - Análisis de Riesgos:

code
1Analiza estas cláusulas clasificadas e identifica potenciales riesgos legales.
2Para cada riesgo, indica: severidad (alta/media/baja) y mitigación sugerida.
3 
4Cláusulas clasificadas: [resultado del Prompt 2]

Prompt 4 - Resumen Ejecutivo:

code
1Genera un resumen ejecutivo de 1 página con:
21. Resumen del contrato (3 párrafos)
32. Riesgos identificados (bullet points)
43. Recomendación final (firmar/negociar/rechazar)
5 
6Análisis de riesgos: [resultado del Prompt 3]

Ejemplo 2: Generación de Contenido para Blog

Cadena de prompts para escribir un artículo:

code
1┌─────────────────┐
2│ 1. Investigación │ → Buscar fuentes y datos sobre el tema
3└────────┬────────┘
4
5┌────────▼────────┐
6│ 2. Outline │ → Crear estructura del artículo
7└────────┬────────┘
8
9┌────────▼────────┐
10│ 3. Primer Draft │ → Escribir cada sección
11└────────┬────────┘
12
13┌────────▼────────┐
14│ 4. SEO │ → Optimizar para buscadores
15└────────┬────────┘
16
17┌────────▼────────┐
18│ 5. Edición │ → Revisar y pulir el texto
19└─────────────────┘

Ejemplo 3: Código con Tests

Cadena para desarrollo de software:

Prompt 1: "Diseña la arquitectura de una función que [descripción]"

Prompt 2: "Implementa la función según esta arquitectura: [resultado 1]" Prompt 3: "Escribe tests unitarios para esta función: [resultado 2]" Prompt 4: "Revisa el código y los tests, sugiere mejoras: [resultados 2 y 3]"


Patrones de Encadenamiento de Prompts

Patrón 1: Secuencial Simple

code
1A → B → C → D

Cada paso depende del anterior. Es el más común.

Ejemplo: Traducir → Resumir → Formatear

Patrón 2: Paralelo con Merge

code
1┌→ B ─┐
2A ──┤ ├→ D
3 └→ C ─┘

Un prompt genera entrada para dos tareas paralelas, cuyos resultados se combinan.

Ejemplo: Analizar sentimiento + Extraer entidades → Informe combinado

Patrón 3: Condicional (Branching)

code
1┌→ B (si positivo)
2A ──────┤
3 └→ C (si negativo)

El siguiente prompt depende del resultado del anterior.

Ejemplo: Clasificar email → Si spam: eliminar, Si importante: responder

Patrón 4: Loop con Refinamiento

code
1A → B → [¿OK?] → Sí → C
2
3 No
4
5
6 B' (refinamiento)

Se repite un paso hasta que el resultado sea satisfactorio.

Ejemplo: Generar código → Ejecutar tests → Si falla: corregir → Repetir


Implementación Práctica

Opción 1: Manual (ChatGPT/Claude)

Puedes hacer prompt chaining manualmente copiando y pegando resultados:

  1. Escribe el primer prompt
  2. Copia el resultado
  3. Escribe el segundo prompt incluyendo el resultado anterior
  4. Repite...

Ventaja: Simple, sin código Desventaja: Tedioso, propenso a errores

Opción 2: Python con LangChain

python
1from langchain import PromptTemplate, LLMChain
2from langchain.chat_models import ChatOpenAI
3 
4llm = ChatOpenAI(model="gpt-4")
5 
6# Cadena de 3 prompts
7cadena_1 = LLMChain(
8 llm=llm,
9 prompt=PromptTemplate(
10 input_variables=["tema"],
11 template="Investiga sobre {tema} y lista 5 puntos clave."
12 )
13)
14 
15cadena_2 = LLMChain(
16 llm=llm,
17 prompt=PromptTemplate(
18 input_variables=["puntos"],
19 template="Expande cada uno de estos puntos en un párrafo:\n{puntos}"
20 )
21)
22 
23cadena_3 = LLMChain(
24 llm=llm,
25 prompt=PromptTemplate(
26 input_variables=["contenido"],
27 template="Edita este texto para hacerlo más engaging:\n{contenido}"
28 )
29)
30 
31# Ejecutar la cadena
32resultado_1 = cadena_1.run("inteligencia artificial en 2026")
33resultado_2 = cadena_2.run(resultado_1)
34resultado_final = cadena_3.run(resultado_2)
35 
36print(resultado_final)

Opción 3: n8n (Sin Código)

En n8n puedes crear cadenas de prompts visualmente:

  1. Nodo 1: OpenAI/Claude con primer prompt
  2. Nodo 2: Transformar output
  3. Nodo 3: OpenAI/Claude con segundo prompt
  4. Nodo 4: Guardar resultado final

Mira mi guía de n8n para más detalles.


Prompt Chaining vs Agentes IA

El Prompt Chaining es la base de los agentes de IA modernos, pero hay diferencias:

CaracterísticaPrompt ChainingAgentes IA
FlujoPredefinidoDinámico
DecisionesHumanoIA
HerramientasOpcionalFundamental
ComplejidadMediaAlta
ControlTotalParcial

Los agentes como MoltBot usan prompt chaining internamente, pero además pueden:

  • Decidir qué prompt ejecutar next
  • Usar herramientas externas (navegador, terminal, APIs)
  • Auto-corregirse cuando algo falla


Errores Comunes y Cómo Evitarlos

Error 1: Cadenas demasiado largas

Problema: Más de 5-6 prompts en secuencia acumulan errores.

Solución: Usa checkpoints de validación cada 2-3 pasos.

Error 2: Perder contexto

Problema: El LLM "olvida" información de prompts anteriores.

Solución: Incluye un resumen del contexto en cada prompt.

Error 3: No manejar errores

Problema: Si un paso falla, toda la cadena se rompe.

Solución: Implementa lógica de retry y fallbacks.

Error 4: Prompts demasiado ambiguos

Problema: "Analiza esto" puede dar resultados impredecibles.

Solución: Sé específico sobre el formato de salida esperado.


Cuándo Usar Prompt Chaining

Úsalo cuando:

  • La tarea tiene múltiples pasos claramente definidos
  • Necesitas control sobre cada paso intermedio
  • Quieres poder debuggear si algo falla
  • La precisión es más importante que la velocidad

No lo uses cuando:

  • La tarea es simple y directa
  • La velocidad es crítica
  • No tienes forma de validar pasos intermedios


Recursos y Siguientes Pasos

Si quieres profundizar en técnicas avanzadas de prompting:


FAQ - Preguntas Frecuentes

¿Prompt Chaining es lo mismo que Chain of Thought?

No. Chain of Thought es una técnica para hacer que el LLM "piense en voz alta" dentro de UN solo prompt. Prompt Chaining conecta MÚLTIPLES prompts en secuencia.

¿Cuántos prompts puedo encadenar?

Técnicamente no hay límite, pero más de 5-6 prompts suele acumular errores. Usa validaciones intermedias.

¿Funciona con modelos locales como Llama?

Sí, pero los modelos más pequeños pueden perder coherencia más rápido. Recomiendo al menos 13B parámetros.

¿Cuánto cuesta en tokens?

Más que un prompt único, pero el ROI en calidad suele valer la pena. Una cadena de 4 prompts puede costar 3-4x más tokens.


¿Tienes dudas sobre Prompt Chaining? Pregúntame en Twitter/X o únete a La Escuela de IA.

📬

¿Te ha gustado? Hay más cada semana

Únete a "IA Sin Humo" — la newsletter donde comparto lo que realmente funciona en inteligencia artificial. Sin teoría innecesaria, sin postureo.

📚

1 Tutorial

Paso a paso, práctico

🛠️

3 Herramientas

Probadas y útiles

💡

0 Bullshit

Solo lo que importa

+547 suscriptores • Cada martes • Cancela cuando quieras