Ir al contenido principal
Desarrollo & IA

Stable Diffusion Tutorial en Español: Generar Imágenes con IA [2026]

8 de febrero de 2026
24 min

Stable Diffusion te permite generar imágenes con IA. Tutorial paso-a-paso con instalación local, prompts y técnicas avanzadas.

Javier Santos

Especialista en IA & Machine Learning

📧¿Te gusta este contenido?

Únete a 547+ profesionales que reciben tips de IA cada semana. Sin spam, cancela cuando quieras.

Stable Diffusion Tutorial en Español: Generar Imágenes con IA [2026]

La generación de imágenes con IA es una de las tecnologías más emocionantes de 2026. Stable Diffusion permite crear imágenes visuales que antes requerían artistas profesionales. Y lo mejor: puedes ejecutarlo en tu propia computadora.

Este tutorial te enseña todo lo que necesitas saber, desde conceptos básicos hasta técnicas avanzadas como LoRAs y ControlNet.

¿Qué es Stable Diffusion?

Stable Diffusion es un modelo de IA que genera imágenes basadas en descripciones de texto. A diferencia de Midjourney o DALL-E, es gratuita y open-source, lo que significa puedes ejecutarla localmente sin pagar.

Cómo Funciona (Simplificado)

code
1Texto: "Gato naranja durmiendo en una biblioteca"
2
3[Modelo IA procesa el texto]
4
5[Inicia con ruido aleatorio]
6
7[Paso 1: Reduce ruido → Imagen borrosa]
8[Paso 2: Reduce ruido → Imagen más clara]
9[Paso 3: Reduce ruido → Imagen enfocada]
10
11Resultado: Imagen generada

Este proceso se llama diffusion (difusión inversa de ruido).

Ventajas vs Alternativas

CaracterísticaStable DiffusionMidjourneyDALL-E 3
PrecioGratuita$10-120/mes$0.08/imagen
Local✓ Sí✗ No✗ No
Privacidad✓ Máxima✗ Baja✗ Media
Customización✓ Completa✗ Limitada✗ Limitada
VelocidadMediaRápidaMuy rápida
CalidadExcelenteExcelenteExcelente
LoRAs✓ Sí✗ No✗ No
Control✓ Máximo✗ Mínimo✗ Mínimo

Instalación Paso a Paso

Requisitos:

  • Windows 10/11 o Mac/Linux
  • GPU NVIDIA 4GB+ (o sin GPU, más lento)
  • 15GB espacio en disco

Paso 1: Descargar

Ve a github.com/AUTOMATIC1111/stable-diffusion-webui

Haz clic en "Code" → "Download ZIP"

O en terminal:

bash
1git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
2cd stable-diffusion-webui

Paso 2: Instalar Dependencias

Windows:

bash
1# Simplemente ejecuta:
2webui-user.bat

Mac/Linux:

bash
1chmod +x webui.sh
2./webui.sh

La primera vez descargará modelos (~5-7 GB). Espera pacientemente.

Paso 3: Acceder

Una vez descargado, abre:

code
1http://localhost:7860

Verás interfaz como esta:

code
1┌─────────────────────────────────────────┐
2│ Stable Diffusion Web UI │
3├─────────────────────────────────────────┤
4│ Prompt: [Tu descripción] │
5│ Negative Prompt: [Lo que evitar] │
6│ │
7│ Steps: 20 Sampling: Euler │
8│ Scale: 7.5 Seed: 12345 │
9│ │
10│ [Imagen Generada] │
11│ │
12│ [GENERATE] [SAVE] │
13└─────────────────────────────────────────┘


Opción 2: ComfyUI (Para Usuarios Avanzados)

ComfyUI es más poderoso pero requiere más conocimiento técnico.

bash
1# Descargar
2git clone https://github.com/comfyanonymous/ComfyUI
3cd ComfyUI
4 
5# Instalar dependencias
6pip install -r requirements.txt
7 
8# Ejecutar
9python main.py

Ventajas de ComfyUI:

  • Flujos de trabajo complejos
  • Mejor para iteraciones
  • Integración con código
  • Control total

Desventajas:

  • Curva de aprendizaje pronunciada
  • Interfaz de nodos
  • Requiere entender el flujo


Opción 3: Ejecutar en Nube (Sin GPU Local)

Si no tienes GPU potente, puedes usar servicios cloud:

Google Colab (Gratuita)

  1. Abre colab.research.google.com
  2. Copia este código:

python
1# Instalar Stable Diffusion
2!git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
3%cd stable-diffusion-webui
4 
5# Montar Google Drive (para guardar imágenes)
6from google.colab import drive
7drive.mount('/content/drive')
8 
9# Ejecutar
10!python launch.py --share

  1. Ejecuta (Ctrl+Enter)
  2. Abre el link compartido que aparece

Gratis pero:

  • Sesión limitada a 12 horas
  • GPU compartida (a veces lenta)
  • Perfecto para probar

Servicios Pagos

  • RunwayML: $15/mes, GPU dedicada
  • Vast.ai: $0.20-1/hora, GPU a demanda
  • Lambda Labs: $0.60-1/hora


Escribir Buenos Prompts

La habilidad más importante es escribir prompts (instrucciones) claros.

Estructura de Prompt Efectiva

code
1[Tema/Sujeto], [Detalles visuales], [Estilo], [Artista/Referencia]
2 
3Ejemplo:
4"Beautiful sunset over ocean, golden hour,
5dramatic clouds, vibrant colors,
6oil painting style, by Turner,
7highly detailed, 8k resolution"

Elementos Clave

1. Sujeto Principal:

code
1Bueno: "Gato naranja durmiendo"
2Malo: "Animal que duerme"
3 
4Bueno: "Castillo medieval en las montañas"
5Malo: "Construcción antigua"

2. Detalles Visuales:

code
1Colores: "dorado, azul profundo, verde esmeralda"
2Iluminación: "luz suave, contraluz, luz dramática"
3Texturas: "liso, rugoso, brillante, mate"
4Ambiente: "interior lujoso, playa desértica, bosque densso"

3. Estilo/Técnica:

code
1Artístico: "acuarela, óleo, digital art, ilustración"
2Fotográfico: "fotografía profesional, Leica, 50mm"
3Cultural: "anime, manga, estilo pixelart"
4Período: "steampunk, art deco, futurista"

4. Referencia de Artista:

code
1Artistas reales: "by Rembrandt, by Anselm Kiefer"
2Directores: "Cinematography by Emmanuel Lubezki"
3Estudios: "Studio Ghibli style, Pixar"

5. Calidad:

code
1"masterpiece, highly detailed, sharp focus,
2professional quality, 8k, ultra HD,
3trending on artstation"

Ejemplos Completos

Prompt 1: Retrato Realista

code
1Portrait of a young woman with piercing blue eyes,
2warm smile, natural lighting, soft shadows,
3professional photography, by Annie Leibovitz,
4shot on Hasselblad, detailed skin texture,
5shallow depth of field, elegant background,
68k, masterpiece

Prompt 2: Paisaje Fantástico

code
1Floating islands in sky filled with bioluminescent plants,
2waterfalls flowing upward, purple and blue colors,
3magical atmosphere, detailed clouds, sunset,
4fantasy illustration, trending on artstation,
5cinematic lighting, trending on pixiv,
64k, very detailed

Prompt 3: Personaje Sci-Fi

code
1Cyborg samurai warrior, intricate metal armor,
2glowing neon accents (blue and purple),
3cyberpunk city background neon lights,
4atmospheric fog, dramatic lighting,
5digital art by Simon Stalenhag,
6highly detailed, 8k quality


Prompts Negativos (Lo que Evitar)

Los negative prompts son igual de importantes. Dicen a IA qué no hacer.

code
1Prompt: "Hermosa mujer"
2 
3Negative Prompt: "deformed, ugly, blurry, bad anatomy,
4 missing limbs, worst quality, poorly drawn,
5 nsfw, monochrome, low contrast"

Negativos Universales Útiles

code
1Para cualquier imagen:
2"blurry, out of focus, low quality, watermark,
3distorted, disfigured, poorly drawn,
4jpeg artifacts, compression, amateur, bad perspective"
5 
6Para personas:
7"deformed face, bad anatomy, extra limbs,
8poorly drawn hands, disfigured, unnatural expression,
9multiple heads"
10 
11Para objetos:
12"distorted proportions, broken, incomplete,
13floating parts, nonsensical"


Parámetros Explicados

Steps (Pasos)

Número de iteraciones de denoising.

code
15-10 pasos: Muy rápido, baja calidad, colores opacos
220-30 pasos: Buena velocidad/calidad (RECOMENDADO)
350+ pasos: Máxima calidad, muy lento

Recomendación: Empieza con 20, sube si necesitas calidad.

CFG Scale (Guidance Scale)

Cuánto de seguir el prompt. 1-20.

code
11-3: Ignora el prompt, imágenes aleatorias
27: Equilibrio perfecto (DEFAULT)
310-15: Sigue prompt fuertemente
420+: Demasiado literal, puede distorsionar

Sampler (Método de Muestreo)

Algoritmo para generar la imagen.

code
1Euler: Rápido, buena calidad
2DPM++ 2M Karras: Excelente balance
3Heun: Calidad muy alta pero lento
4Ancestral: Más variación, menos consistencia

Recomendación: "DPM++ 2M Karras" para mejor calidad.

Seed (Semilla)

Número que controla aleatoriedad.

code
1Seed: 12345 → Siempre la misma imagen
2Seed: -1 → Aleatorio cada vez

Truco: Encuentra una imagen que casi te gusta.

Mantén seed, cambia solo prompt ligeramente.

Aspect Ratio (Proporción)

code
1512x512: Cuadrado (DEFAULT)
2768x512: Horizontal (más ancho)
3512x768: Vertical (más alto)
41024x768: Cinemático


Modelos y Checkpoints

Un "checkpoint" o "modelo" es el archivo de IA que genera imágenes.

Modelos Populares 2026

Stable Diffusion 3

code
1Mejor para: Fotorrealismo, anatomía precisa
2Tamaño: ~7GB
3Recomendado: Sí, uso general
4Url: Incluido en instalación

Realistic Vision

code
1Mejor para: Fotografía realista, retratos
2Tamaño: ~4GB
3Descargar: civitai.com
4Calidad: Excelente fotorrealismo

DreamShaper

code
1Mejor para: Arte ilustrativo, fantástico
2Tamaño: ~4GB
3Descargar: civitai.com
4Estilo: Más artístico que realista

Anime / MeinaMix

code
1Mejor para: Anime, manga, arte 2D
2Tamaño: ~4GB
3Descargar: civitai.com
4Especialidad: Anime de muy alta calidad

Descargar Modelos

  1. Ve a civitai.com
  2. Busca modelo
  3. Descarga archivo .safetensors
  4. Muévelo a: stable-diffusion-webui/models/Stable-diffusion/
  5. Reinicia interfaz
  6. Selecciona en dropdown


LoRAs (Mejora Especializada)

LoRA = Low-Rank Adaptation. Son como "paquetes de estilo" que mejoran el modelo.

Cómo Funcionan

code
1Modelo base: Sabe generar casi cualquier cosa
2
3+ LoRA "Portrait Master": Ahora hace retratos perfectos
4+ LoRA "Cyberpunk Neon": Ahora hace cyberpunk fantástico
5+ LoRA "Watercolor": Ahora hace acuarelas
6
7Resultado: Modelo especializado muy potente

Instalar LoRAs

  1. Descarga de civitai.com
  2. Mueve a: models/Lora/
  3. Reinicia interfaz
  4. En prompt, usa:

Ejemplos

code
1Prompt con LoRA:
2"A beautiful woman, portrait, <lora:DetailXL:0.8>,
3<lora:ElegantPortrait:0.7>, studio lighting,
4professional photography, 8k"
5 
6Múltiples LoRAs:
7"Cyberpunk samurai, <lora:CyberpunkStyle:0.9>,
8<lora:DetailXL:0.8>, trending on artstation"

LoRAs Populares

  • DetailXL: Añade detalles microscópicos
  • ElegantPortrait: Perfecciona retratos
  • CyberpunkStyle: Estética cyberpunk
  • Watercolor: Efecto acuarela
  • LineartXL: Trazo limpio tipo anime


Técnicas Avanzadas

ControlNet (Control Preciso)

ControlNet permite controlar la composición usando:

  • Detectores de bordes
  • Mapas de profundidad
  • Poses de personas
  • Líneas

code
1Imagen Input → ControlNet → Guía la generación
2(Tu dibujo) (Mantiene composición)

Cómo Usar ControlNet

  1. Descarga modelos de ControlNet
  2. Copia a extensions/sd-webui-controlnet/models/
  3. En UI: "ControlNet" tab
  4. Sube imagen
  5. Selecciona tipo (Canny Edge, Depth, Pose)
  6. Genera

Ejemplo: Pose Guiada

code
1Quiero: Hombre saltando, estilo anime
2Hago: Dibujo palitos del hombre saltando
3Subo: Imagen palitos a ControlNet
4Tipo: OpenPose (detecta poses)
5Resultado: Persona realista saltando, en mi pose

Inpainting (Editar Partes)

Modificar solo una parte de la imagen.

code
1Imagen original → Máscara (área a cambiar) → Nueva imagen
2 
3Ejemplo:
4Original: Gato en habitación
5Máscara: Selecciono la pared
6Prompt: "Starry night, Van Gogh style"
7Resultado: Gato sigue igual, pared es starry night

Img2Img (Transformar Imagen)

Toma una imagen existente y la transforma.

code
1Foto tuya → Img2Img → Tú como personaje anime
2 (prompt: "anime style, detailed")

Parámetro importante: Denoising Strength

code
10.3: Cambios sutiles (mantiene original)
20.5: Balance entre original y nuevo
30.8: Cambio drástico (poco original)
40.95: Casi genera nueva imagen


Flujo de Trabajo Completo

Para Ilustrador Profesional

code
1Paso 1: Concepto
2├─ Escribe descripción detallada
3└─ Genera 5-10 variaciones (seed diferentes)
4 
5Paso 2: Seleccionar Base
6├─ Elige la mejor
7└─ Mantén seed
8 
9Paso 3: Refinar
10├─ Genera con seed igual pero prompt mejorado
11└─ Ajusta parámetros
12└─ Agrega LoRAs si necesita especialización
13 
14Paso 4: ControlNet
15├─ Genera pose con ControlNet si es necesario
16└─ Refina detalles
17 
18Paso 5: Inpainting
19├─ Corrige errores específicos
20├─ Edita manos si están mal
21└─ Ajusta background
22 
23Paso 6: Postprocesamiento
24├─ Upscala (x2, x4)
25├─ Tira en Photoshop si necesita
26└─ Exporta final

Para Marketing/Social Media

code
1Paso 1: Idea Rápida
2├─ Escribe prompt
3└─ Genera 20 imágenes diferentes seeds
4 
5Paso 2: Seleccionar Mejores 3-5
6├─ Upscala
7└─ Minor tweaks
8 
9Paso 3: Usar en Diseño
10├─ Exporta
11└─ Usa en Canva/Figma
12 
13Total: 15-30 minutos


Solución de Problemas

Problema 1: Manos Deformadas

code
1Negativo: "deformed hands, bad hands, extra fingers"
2Agrega: "perfect hands, detailed hands"
3 
4Alternativa: Sube a ControlNet con HandDetector

Problema 2: Rostros Feos

code
1Negativo: "deformed face, ugly face, bad proportions"
2Agrega: "beautiful face, perfect anatomy"
3 
4Usa LoRA: "<lora:DetailXL:1.0>"

Problema 3: Textos Ilegibles

code
1Nota: SD es malo para texto
2Solución 1: Usa ControlNet LineArt
3Solución 2: Agrega texto en Photoshop después
4Solución 3: Prueba modelos optimizados para texto

Problema 4: Salida Muy Ruidosa

code
1Aumenta: Steps (20 → 30)
2Cambia: Sampler a "DPM++ 2M Karras"
3Agrega: "highly detailed, sharp focus" a prompt

Problema 5: Memoria Insuficiente (VRAM)

code
1Si tienes GPU 4GB:
2 Reduce: Tamaño imágenes (512x512 en lugar de 768x768)
3 Activa: "Optimized memory usage"
4 Prueba: Half precision (fp16)
5 
6Si no tienes GPU:
7 Usa: Cloud (Colab, Vast.ai)
8 O: Midjourney/DALL-E (pago pero simple)


Recursos Útiles

Sitios Web

SitioPropósito
civitai.comModelos, LoRAs, embeddings
huggingface.coModelos oficiales
openart.aiGalería, prompts públicos
lexica.artInspiración, búsqueda prompts

Comunidades

  • Reddit: r/StableDiffusion (35k+ miembros)
  • Discord: Oficial Stable Diffusion
  • GitHub: Discusiones técnicas

Aprender Prompts

  1. Ve a openart.ai
  2. Busca "portrait realistic"
  3. Copia prompts que te gusten
  4. Úsalos como base para los tuyos


Costos Comparativos 2026

Hardware (Inversión inicial)

code
1GPU NVIDIA:
2 RTX 3060 (12GB): ~$400
3 RTX 4070 (12GB): ~$600
4 RTX 4080 (16GB): ~$1200
5 RTX 6000 (48GB): ~$7000
6 
7Costo por generación local: $0 (después de GPU)

Cloud (Pago por uso)

code
1Google Colab: Gratis (limitado)
2Vast.ai: $0.20-1/hora
3RunwayML: $10-50/mes
4Local + GPU: $400-7000 (único pago)

Alternativas Pagadas Comparadas

code
1Midjourney: $10-120/mes (ilimitado)
2DALL-E 3: $0.08-0.12 por imagen
3Adobe Firefly: Incluida en suscripción
4Stable Diffusion: Gratuita localmente


FAQ: Preguntas Frecuentes

¿Puedo vender imágenes generadas con Stable Diffusion?

Respuesta: Sí, probablemente. SD es open-source bajo licencia OpenRAIL. Puedes vender imágenes comercialmente si das crédito y no violas derechos de terceros. Consulta abogado para certeza legal.

¿Cuál es la mejor GPU para Stable Diffusion?

Respuesta: Depende presupuesto:

  • $400: RTX 3060 (12GB) - Muy buena relación precio
  • $600: RTX 4070 (12GB) - Mejor que 3060
  • $1200+: RTX 4090 (24GB) - La mejor, pero costosa

Necesitas mínimo 12GB VRAM. 8GB funciona pero lento.

¿Sd genera contenido protegido por derechos de autor?

Respuesta: El modelo fue entrenado con contenido de internet (incluyendo artistas). Hay debate legal en 2026. Mejor prácticas:

  • No copies estilo de artista vivo (ética)
  • Usa prompts genéricos
  • Modifica imágenes generadas
  • Revisa T&C de tu jurisdicción

¿Cuánto tiempo toma generar una imagen?

Respuesta:

  • Con GPU potente (4080): 5-10 segundos
  • Con GPU media (3060): 20-30 segundos
  • Sin GPU (CPU): 2-5 minutos
  • Cloud Vast.ai: 15-30 segundos

¿Es mejor LoRA o cambiar modelo completo?

Respuesta:

  • LoRA: Rápido, especializado, bajo espacio
  • Modelo: Cambio completo, mejor calidad en general

Recomendación: Mantén modelo base bueno, agrega LoRAs.


Próximos Pasos

  1. Instala Automatic1111 o ComfyUI
  2. Aprende escribiendo 10 prompts diferentes
  3. Experimenta con parámetros
  4. Descarga 1-2 modelos nuevos
  5. Domina ControlNet e Inpainting

La generación de imágenes con IA es una habilidad que vale oro en 2026. Los que la dominen tendrán ventaja competitiva en diseño, marketing, ilustración.

¿Ya usas Stable Diffusion? ¿Cuál es tu resultado favorito que has generado? Comparte en comentarios.

📬

¿Te ha gustado? Hay más cada semana

Únete a "IA Sin Humo" — la newsletter donde comparto lo que realmente funciona en inteligencia artificial. Sin teoría innecesaria, sin postureo.

📚

1 Tutorial

Paso a paso, práctico

🛠️

3 Herramientas

Probadas y útiles

💡

0 Bullshit

Solo lo que importa

+547 suscriptores • Cada martes • Cancela cuando quieras