Ir al contenido principal

Diccionario de IA: 100 Terminos de Inteligencia Artificial Explicados [2026]

12 de abril de 2026
35 min

Glosario completo de inteligencia artificial con 100 terminos explicados en espanol claro: AGI, LLM, RAG, fine-tuning, transformers, tokens y mas. Actualizado abril 2026.

Javier Santos

Especialista en IA & Machine Learning

📧¿Te gusta este contenido?

Únete a 547+ profesionales que reciben tips de IA cada semana. Sin spam, cancela cuando quieras.

Diccionario de IA: 100 Terminos de Inteligencia Artificial Explicados [Abril 2026]

Este diccionario de inteligencia artificial reune los 100 terminos que necesitas dominar en 2026, explicados en espanol claro y con ejemplos practicos. Si alguna vez te has perdido leyendo sobre LLMs, RAG, fine-tuning o transformers, este glosario es tu referencia definitiva. No importa si eres principiante absoluto o llevas meses trabajando con IA: aqui encontraras cada concepto explicado de forma directa, sin jerga innecesaria, y actualizado a abril de 2026.

La inteligencia artificial avanza tan rapido que cada semana aparecen terminos nuevos. Solo en el primer trimestre de 2026 se han popularizado conceptos como World Models, SLM y MCP que hace un ano casi nadie mencionaba. Tener un glosario actualizado te ahorra horas de busqueda y te da la base para entender cualquier articulo, curso o tutorial que encuentres.

Si estas empezando desde cero, te recomiendo complementar este diccionario con nuestra guia completa para aprender IA desde cero, que te da una hoja de ruta paso a paso.

TL;DR

  • 100 terminos organizados en 10 categorias tematicas, desde fundamentos hasta tendencias 2026.
  • Cada termino tiene una definicion en negrita de 1-2 frases + ejemplo practico + por que importa.
  • Actualizado a 12 de abril de 2026 con los ultimos conceptos: MoE, RLHF, SLM, MCP, World Models y mas.
  • Usa Ctrl+F (o Cmd+F en Mac) para buscar cualquier termino directamente.
  • Si quieres profundizar en algun tema, encontraras enlaces internos a guias detalladas a lo largo de todo el glosario.


Como Usar Este Diccionario

Este glosario esta pensado para que lo uses como referencia rapida. Tienes tres formas de aprovecharlo:

  1. Busqueda directa: pulsa Ctrl+F y escribe el termino que necesitas. Cada uno aparece como encabezado, asi que lo encontraras al instante.
  2. Por categorias: si quieres explorar un area concreta (modelos de lenguaje, tecnicas de entrenamiento, infraestructura...), navega directamente a la seccion que te interese.
  3. Como complemento de estudio: si estas siguiendo un curso o tutorial y te topas con un concepto que no entiendes, vuelve aqui para aclararlo en segundos.

Dominar estos 100 terminos te situa por delante del 90% de las personas que hablan de IA sin entender realmente que hay detras. Segun un estudio de McKinsey publicado el 15 de enero de 2026, el 72% de los profesionales que adoptan herramientas de IA reportan que la barrera principal es la terminologia, no la tecnologia en si.


Categoria 1: Fundamentos de IA

Estos 15 terminos son la base de todo lo que viene despues. Si entiendes estos conceptos, podras seguir cualquier conversacion sobre inteligencia artificial sin perderte.

1. Inteligencia Artificial (IA / AI)

La Inteligencia Artificial es la rama de la informatica que desarrolla sistemas capaces de realizar tareas que normalmente requieren inteligencia humana, como reconocer imagenes, entender lenguaje o tomar decisiones. El termino fue acunado por John McCarthy en 1956 en la conferencia de Dartmouth. Hoy abarca desde el filtro de spam de tu correo hasta asistentes como ChatGPT o Claude. Cuando alguien dice "IA", casi siempre se refiere a IA estrecha (sistemas especializados en una tarea), no a una inteligencia general comparable a la humana.

2. Machine Learning (ML / Aprendizaje Automatico)

Machine Learning es un subcampo de la IA en el que los sistemas aprenden patrones a partir de datos sin ser programados explicitamente para cada regla. En lugar de escribir "si el email contiene X palabra, es spam", le das miles de emails etiquetados y el modelo aprende solo a distinguirlos. Es la base de los sistemas de recomendacion de Netflix, la deteccion de fraude bancario y los coches autonomos. Si la IA es el paraguas, el ML es la herramienta mas usada dentro de el.

3. Deep Learning (Aprendizaje Profundo)

Deep Learning es un tipo de Machine Learning que utiliza redes neuronales con muchas capas (de ahi "profundo") para aprender representaciones complejas de los datos. Fue la revolucion que permitio a las maquinas reconocer rostros, traducir idiomas y generar texto con calidad humana. La diferencia clave con el ML clasico es que el deep learning descubre automaticamente las caracteristicas relevantes de los datos, mientras que en ML clasico tu tienes que definirlas manualmente. GPT, DALL-E y Stable Diffusion son todos productos del deep learning.

CaracteristicaMachine Learning ClasicoDeep Learning
Datos necesariosMiles de ejemplosMillones de ejemplos
Extraccion de featuresManualAutomatica
HardwareCPU suficienteGPU/TPU necesario
ExplicabilidadAltaBaja
Ejemplo tipicoPrediccion de preciosGeneracion de texto

4. Red Neuronal (Neural Network)

Una red neuronal es un modelo computacional inspirado en el cerebro humano, compuesto por nodos (neuronas artificiales) organizados en capas que procesan informacion. Tiene tres partes: capa de entrada (recibe los datos), capas ocultas (procesan la informacion) y capa de salida (da el resultado). Cuantas mas capas ocultas tiene, mas "profunda" es la red y mas patrones complejos puede aprender. Una red neuronal simple puede tener 3 capas; GPT-4 tiene mas de 100.

5. Algoritmo

Un algoritmo es un conjunto de instrucciones paso a paso que un sistema sigue para resolver un problema o completar una tarea. En IA, los algoritmos definen como aprende un modelo: gradient descent, backpropagation, o Adam optimizer son algoritmos de entrenamiento. Piensa en un algoritmo como una receta de cocina: los datos son los ingredientes, el algoritmo es el proceso, y el modelo entrenado es el plato final.

6. Modelo

Un modelo de IA es el resultado de entrenar un algoritmo con datos: es la "inteligencia" aprendida que puede hacer predicciones o generar contenido. Cuando alguien dice "el modelo de OpenAI" o "un modelo de lenguaje", se refiere a este artefacto entrenado. Un modelo tiene parametros (pesos numericos) que codifican todo lo que ha aprendido. GPT-4 tiene aproximadamente 1,8 billones de parametros (estimacion, OpenAI no confirma la cifra exacta). Tu descargas o llamas a un modelo, no a un algoritmo.

7. Entrenamiento (Training)

El entrenamiento es el proceso mediante el cual un modelo de IA aprende a partir de datos, ajustando sus parametros internos para minimizar errores en sus predicciones. Es la fase mas costosa: entrenar GPT-4 costo mas de 100 millones de dolares en computacion (The Information, 2023). Durante el entrenamiento, el modelo ve millones de ejemplos, hace predicciones, compara con la respuesta correcta y ajusta sus pesos. Este ciclo se repite millones de veces hasta que el modelo alcanza un rendimiento aceptable.

8. Inferencia (Inference)

La inferencia es el momento en que usas un modelo ya entrenado para obtener una respuesta o prediccion a partir de nuevos datos. Cuando le preguntas algo a ChatGPT, eso es inferencia. El entrenamiento ocurre una vez (y cuesta mucho); la inferencia ocurre cada vez que alguien usa el modelo (y debe ser rapida y barata). Optimizar la inferencia es una de las grandes prioridades de la industria en 2026, porque reduce costes y permite ejecutar modelos en dispositivos moviles.

9. Parametro (Parameter)

Un parametro es un valor numerico interno del modelo que se ajusta durante el entrenamiento y que codifica lo que el modelo ha aprendido. Cuando lees que Llama 3 tiene 70.000 millones de parametros, se refiere a 70.000 millones de numeros que representan el conocimiento del modelo. Mas parametros generalmente significa mas capacidad de aprendizaje, pero tambien mas coste computacional y mas memoria. Un modelo de 7B parametros puede funcionar en tu portatil; uno de 70B necesita una GPU profesional.

10. Hiperparametro (Hyperparameter)

Un hiperparametro es una configuracion que tu defines antes de entrenar el modelo y que controla como se desarrolla el aprendizaje. A diferencia de los parametros (que aprende el modelo solo), los hiperparametros los decides tu: la tasa de aprendizaje (learning rate), el tamano del batch, el numero de epocas o la temperatura de generacion. Elegir buenos hiperparametros es mas arte que ciencia y puede marcar la diferencia entre un modelo mediocre y uno excelente.

11. Dataset (Conjunto de Datos)

Un dataset es la coleccion de datos que se usa para entrenar, validar o evaluar un modelo de IA. La calidad del dataset determina directamente la calidad del modelo: "basura entra, basura sale". Los datasets pueden contener texto (como Common Crawl con billones de palabras de internet), imagenes (como ImageNet con 14 millones de imagenes etiquetadas), audio o cualquier tipo de dato. Crear y curar datasets de calidad es uno de los trabajos mas importantes y menos glamurosos de la IA.

12. Sesgo (Bias)

El sesgo en IA se refiere a errores sistematicos en las predicciones de un modelo, generalmente causados por datos de entrenamiento desequilibrados o no representativos. Si entrenas un modelo de contratacion con datos historicos donde el 90% de los contratados eran hombres, el modelo aprendera a preferir candidatos masculinos. El sesgo no es solo un problema tecnico: tiene consecuencias reales en creditos bancarios, sistemas judiciales y contratacion. Detectar y mitigar el sesgo es una de las areas mas activas de investigacion en etica de IA.

13. Sobreajuste (Overfitting)

El sobreajuste ocurre cuando un modelo aprende demasiado bien los datos de entrenamiento, memorizando incluso el ruido, y luego falla con datos nuevos. Es como un estudiante que memoriza las respuestas del examen de practica pero no entiende la materia: saca 10 en el simulacro y suspende el examen real. Se detecta cuando el rendimiento en entrenamiento es excelente pero en validacion es malo. Se combate con tecnicas como dropout, regularizacion o simplemente usando mas datos.

14. Subajuste (Underfitting)

El subajuste ocurre cuando un modelo es demasiado simple para capturar los patrones de los datos, resultando en un rendimiento pobre tanto en entrenamiento como en datos nuevos. Es el problema opuesto al sobreajuste: el modelo no ha aprendido lo suficiente. Suele pasar cuando el modelo es demasiado pequeno, el entrenamiento fue demasiado corto o los datos son insuficientes. La solucion tipica es usar un modelo mas grande o entrenar durante mas tiempo.

15. Aprendizaje Supervisado, No Supervisado y por Refuerzo

Los tres paradigmas fundamentales de Machine Learning son: supervisado (aprendes con ejemplos etiquetados), no supervisado (encuentras patrones sin etiquetas) y por refuerzo (aprendes por prueba y error con recompensas). En supervisado, le das al modelo fotos de gatos y perros etiquetadas y aprende a distinguirlos. En no supervisado, le das datos sin etiquetas y descubre agrupaciones naturales. En refuerzo, un agente interactua con un entorno y aprende a maximizar una recompensa, como AlphaGo aprendiendo a jugar al Go ganando y perdiendo millones de partidas.


Categoria 2: Modelos de Lenguaje

Los modelos de lenguaje son la tecnologia detras de ChatGPT, Claude y Gemini. Estos 15 terminos te explican como funcionan por dentro.

16. LLM (Large Language Model / Modelo de Lenguaje Grande)

Un LLM es un modelo de deep learning entrenado con cantidades masivas de texto que puede comprender y generar lenguaje humano. "Grande" se refiere tanto al volumen de datos de entrenamiento (billones de palabras) como al numero de parametros (desde 7.000 millones hasta mas de un billon). GPT-4, Claude Opus 4.6, Gemini 2.5 Pro y Llama 4 son todos LLMs. Son la tecnologia mas transformadora de la ultima decada y la razon por la que hoy puedes tener una conversacion natural con una maquina. Si quieres ver una comparativa actualizada, consulta nuestro ranking de las mejores IAs de 2026.

17. SLM (Small Language Model / Modelo de Lenguaje Pequeno)

Un SLM es un modelo de lenguaje con menos parametros (tipicamente entre 1.000 y 7.000 millones) disenado para funcionar en dispositivos con recursos limitados. Phi-3 de Microsoft, Gemma 2 de Google y Llama 3.2 de 3B son ejemplos de SLMs. Son mas rapidos, baratos y eficientes que los LLMs grandes, y a menudo son suficientes para tareas especificas como clasificacion de texto o respuesta a preguntas simples. En 2026, los SLMs son la tendencia dominante para aplicaciones en moviles y edge computing.

18. Transformer

El Transformer es la arquitectura de red neuronal inventada por Google en 2017 (paper "Attention Is All You Need") que revoluciono el procesamiento del lenguaje y es la base de todos los LLMs actuales. Su innovacion clave es el mecanismo de atencion, que permite al modelo considerar todas las palabras de un texto simultaneamente en lugar de procesarlas una a una. Antes de los Transformers, los modelos de lenguaje usaban redes recurrentes (RNN/LSTM) que eran mucho mas lentas y menos precisas. Cada vez que usas ChatGPT, Claude o Gemini, hay un Transformer detras.

19. Token

Un token es la unidad basica de texto que procesa un modelo de lenguaje, y puede ser una palabra completa, parte de una palabra, o un caracter de puntuacion. Por ejemplo, la frase "Inteligencia artificial" se divide en tokens como ["Int", "elig", "encia", " artificial"]. Un modelo no "lee" palabras como tu y yo: lee tokens. GPT-4 puede procesar hasta 128.000 tokens de contexto (equivalente a unas 300 paginas de texto). Los precios de las APIs de IA se cobran por token: en abril de 2026, Claude Opus 4.6 cuesta 15$ por millon de tokens de entrada.

20. Ventana de Contexto (Context Window)

La ventana de contexto es la cantidad maxima de tokens que un modelo puede procesar en una sola interaccion, incluyendo tanto tu mensaje como su respuesta. Si un modelo tiene una ventana de 128K tokens, puede "recordar" todo lo que le has dicho dentro de esos 128K tokens. Fuera de esa ventana, literalmente olvida. Es una de las limitaciones mas importantes de los LLMs actuales. Gemini 2.5 presume de 1 millon de tokens de contexto (febrero de 2026), mientras que la mayoria de modelos se mueven entre 128K y 200K tokens.

21. Prompt

Un prompt es la instruccion o texto que tu le das a un modelo de IA para obtener una respuesta. Puede ser una pregunta simple ("que es la inflacion"), una instruccion detallada ("escribe un email profesional rechazando una oferta") o un sistema complejo con ejemplos y restricciones. La calidad de tu prompt determina directamente la calidad de la respuesta. El "prompt engineering" es la disciplina de disenar prompts efectivos, y en 2026 sigue siendo una habilidad esencial para cualquier persona que trabaje con IA.

22. Embedding

Un embedding es una representacion numerica de un texto (o imagen, o audio) en forma de vector de numeros que captura su significado semantico. Imagina que pudieras representar cada palabra como un punto en un espacio multidimensional donde palabras con significados similares estan cerca: "rey" y "reina" estarian proximos, y ambos lejos de "manzana". Los embeddings permiten buscar por significado, no solo por coincidencia exacta de palabras. Son la base de los sistemas RAG y la busqueda semantica.

23. Tokenizador (Tokenizer)

El tokenizador es el componente que convierte texto legible en la secuencia de tokens numericos que el modelo puede procesar, y viceversa. Cada modelo tiene su propio tokenizador. El de GPT-4 (tiktoken) divide el texto de forma diferente al de Llama (SentencePiece). Un buen tokenizador es eficiente: representa el lenguaje con menos tokens, lo que significa textos mas largos dentro de la misma ventana de contexto y menor coste. Los tokenizadores en espanol suelen ser menos eficientes que en ingles porque la mayoria de modelos se entrenan principalmente con texto en ingles.

24. Atencion (Attention)

El mecanismo de atencion permite a un Transformer decidir cuanto peso o importancia dar a cada token del texto cuando procesa otro token. Es como cuando lees "El gato que estaba en el tejado salto" y tu cerebro conecta automaticamente "gato" con "salto", ignorando las palabras intermedias. Sin atencion, los modelos procesaban texto de forma secuencial y perdian conexiones entre palabras lejanas. El mecanismo de atencion resolvio este problema y es la razon por la que los LLMs entienden textos largos y complejos.

25. Auto-Atencion (Self-Attention)

La auto-atencion es un tipo especifico de atencion en el que cada token de un texto se compara con todos los demas tokens del mismo texto para entender relaciones contextuales. Es lo que permite al modelo entender que en "Apple lanzo su ultimo producto", "Apple" se refiere a la empresa y no a la fruta, porque los otros tokens del contexto (lanzo, producto) lo aclaran. La auto-atencion es el corazon de la arquitectura Transformer y lo que la hace tan potente para entender lenguaje natural.

26. Pre-entrenamiento (Pre-training)

El pre-entrenamiento es la fase inicial donde un modelo aprende patrones generales del lenguaje procesando cantidades masivas de texto de internet. Durante esta fase, el modelo predice la siguiente palabra de billones de frases, aprendiendo gramatica, hechos, razonamiento y hasta algo de sentido comun. Es la fase mas costosa (meses de computacion en miles de GPUs) y produce un modelo "base" que sabe mucho pero no esta optimizado para seguir instrucciones. Despues del pre-entrenamiento viene el ajuste fino (fine-tuning) para hacerlo util.

27. GPT (Generative Pre-trained Transformer)

GPT es la familia de modelos de lenguaje creada por OpenAI que combina la arquitectura Transformer con pre-entrenamiento generativo, y que popularizo la IA conversacional. GPT-1 (2018) tenia 117 millones de parametros. GPT-4 (2023) tiene estimados 1,8 billones. GPT-5, lanzado en 2025, mejoro significativamente el razonamiento multimodal. El nombre describe exactamente lo que es: un modelo Generativo (crea texto), Pre-entrenado (con datos masivos) y basado en Transformers.

28. BERT (Bidirectional Encoder Representations from Transformers)

BERT es un modelo de lenguaje de Google (2018) que revoluciono la comprension de texto al procesar las palabras en ambas direcciones, no solo de izquierda a derecha. Mientras GPT genera texto (escribe), BERT entiende texto (clasifica, busca, responde preguntas). Google lo usa internamente para entender tus busquedas. BERT fue el primer modelo que demostro que pre-entrenar un Transformer grande y luego ajustarlo para tareas especificas superaba a todos los enfoques anteriores. Sigue siendo muy relevante para busqueda semantica y clasificacion.

29. Codificador y Decodificador (Encoder / Decoder)

El encoder es la parte de un Transformer que comprende el texto de entrada, y el decoder es la parte que genera texto de salida. BERT es solo encoder (entiende pero no genera). GPT es solo decoder (genera pero no analiza bidireccionalmente). T5 y los primeros Transformers usan ambos (encoder-decoder): el encoder entiende la entrada y el decoder genera la salida. Saber esto te ayuda a entender por que diferentes modelos sirven para diferentes tareas.

30. Sequence-to-Sequence (Seq2Seq)

Sequence-to-Sequence es una arquitectura que toma una secuencia de entrada y produce una secuencia de salida, usada en traduccion, resumen y generacion de texto. Piensa en un traductor: entra una frase en espanol (secuencia de entrada) y sale una frase en ingles (secuencia de salida). Los modelos encoder-decoder como T5 o BART son Seq2Seq. Aunque los modelos modernos de solo decoder (GPT, Claude) dominan hoy, entender Seq2Seq te ayuda a comprender la evolucion de la arquitectura y por que ciertos modelos funcionan mejor para ciertas tareas.


Categoria 3: Tecnicas de Entrenamiento y Ajuste

Estos 10 terminos cubren como se entrenan, ajustan y optimizan los modelos de IA. Son clave si quieres entender las noticias sobre nuevos modelos o si planeas adaptar modelos a tu caso de uso.

31. Fine-tuning (Ajuste Fino)

El fine-tuning es el proceso de tomar un modelo pre-entrenado y re-entrenarlo con datos especificos de tu dominio para que se especialice en una tarea concreta. Es como contratar a un licenciado en filologia (modelo pre-entrenado con conocimiento general) y formarlo durante 3 meses en derecho fiscal (fine-tuning). En lugar de entrenar un modelo desde cero (millones de euros), coges uno existente y lo ajustas con miles de ejemplos de tu sector. Es la forma mas eficiente de tener un modelo personalizado y cualquier empresa puede hacerlo con un presupuesto moderado.

32. RLHF (Reinforcement Learning from Human Feedback)

RLHF es la tecnica que alinea los modelos de lenguaje con las preferencias humanas usando aprendizaje por refuerzo con feedback de personas reales. Es la razon por la que ChatGPT da respuestas utiles y educadas en lugar de texto aleatorio. El proceso tiene 3 pasos: (1) humanos puntuan las respuestas del modelo, (2) se entrena un "modelo de recompensa" con esas puntuaciones, (3) se usa aprendizaje por refuerzo para que el modelo genere respuestas que maximicen esa recompensa. Introducido por OpenAI en InstructGPT (2022), sigue siendo la tecnica estandar de alineacion.

33. DPO (Direct Preference Optimization)

DPO es una alternativa a RLHF que elimina la necesidad de un modelo de recompensa separado, simplificando el proceso de alineacion con preferencias humanas. En lugar de entrenar un modelo intermedio, DPO ajusta directamente el LLM usando pares de respuestas preferidas vs. rechazadas. Es mas estable, mas simple de implementar y produce resultados comparables a RLHF. Meta lo uso para Llama 2 y desde entonces se ha convertido en la opcion preferida por muchos equipos de investigacion, especialmente los que tienen recursos limitados.

34. LoRA (Low-Rank Adaptation)

LoRA es una tecnica de fine-tuning eficiente que solo modifica una fraccion minima de los parametros del modelo, reduciendo drasticamente el coste computacional. En lugar de actualizar los 70.000 millones de parametros de un modelo, LoRA anade matrices pequenas (del 0,1% al 1% del tamano total) que capturan la adaptacion necesaria. El resultado: puedes hacer fine-tuning de un modelo de 70B en una sola GPU con 24 GB de VRAM, algo que de otra forma requeriria un cluster de servidores. Es la democratizacion del fine-tuning.

35. QLoRA (Quantized LoRA)

QLoRA combina la cuantizacion del modelo (reducir la precision numerica) con LoRA para hacer fine-tuning de modelos gigantes en hardware consumer. Publicado en mayo de 2023 por Tim Dettmers, permite ajustar un modelo de 65B parametros en una sola GPU de 48 GB. El truco: cuantiza el modelo base a 4 bits (reduce el uso de memoria un 75%) y aplica LoRA sobre esa version comprimida. Si te interesa experimentar con modelos locales, QLoRA es la tecnica que hace posible que lo hagas en tu propio ordenador.

36. Transfer Learning (Aprendizaje por Transferencia)

El Transfer Learning es la tecnica de tomar un modelo entrenado para una tarea y reutilizar su conocimiento para otra tarea diferente. Es el principio detras de todo el ecosistema moderno de IA: nadie entrena modelos desde cero. GPT-4 se pre-entrena con texto general y luego se "transfiere" a tareas como codigo, matematicas o medicina. Un modelo de clasificacion de imagenes entrenado con ImageNet se reutiliza para detectar tumores en radiografias. Sin Transfer Learning, la IA seria inaccesible para el 99% de las empresas.

37. Destilacion (Distillation)

La destilacion de modelos es el proceso de transferir el conocimiento de un modelo grande ("profesor") a un modelo pequeno ("alumno") que es mas rapido y barato de ejecutar. El modelo alumno se entrena para imitar las respuestas del profesor, no los datos originales. Gemma 2 de Google, por ejemplo, fue destilado de modelos mucho mas grandes. El resultado es un modelo pequeno que rinde sorprendentemente bien porque ha aprendido los "atajos" del modelo grande. Es una de las tecnicas clave para llevar la IA a moviles y dispositivos edge.

38. Cuantizacion (Quantization)

La cuantizacion reduce la precision numerica de los parametros de un modelo (por ejemplo, de 16 bits a 4 bits) para que ocupe menos memoria y se ejecute mas rapido. Un modelo de 70B parametros en FP16 ocupa 140 GB de VRAM; cuantizado a 4 bits, ocupa solo 35 GB. La perdida de calidad es minima: en la mayoria de benchmarks, un modelo Q4 rinde al 95-98% del original. Si quieres ejecutar modelos localmente con Ollama, casi siempre usaras versiones cuantizadas.

39. Poda (Pruning)

La poda elimina los parametros menos importantes de un modelo (los pesos cercanos a cero) para hacerlo mas pequeno y rapido sin perder rendimiento significativo. Es como podar un arbol: cortas las ramas que no producen fruto para que la energia se concentre en las productivas. Un modelo podado puede ser un 50-90% mas pequeno con menos del 5% de perdida de rendimiento. Se suele combinar con cuantizacion para maximizar la eficiencia. En 2026, la poda estructurada es un area de investigacion muy activa.

40. IA Constitucional (Constitutional AI)

La IA Constitucional es una tecnica desarrollada por Anthropic donde el modelo se alinea con un conjunto de principios escritos ("constitucion") en lugar de depender exclusivamente de feedback humano. El modelo genera respuestas, las evalua contra los principios (ser util, ser honesto, no causar dano) y se autocorrige. Es mas escalable que RLHF porque no necesita miles de evaluadores humanos para cada iteracion. Claude utiliza esta tecnica como parte fundamental de su proceso de alineacion, y es una de las razones por las que Anthropic enfatiza la seguridad como diferenciador.


Categoria 4: Arquitecturas y Modelos Populares

Estos 10 terminos cubren los modelos concretos que dominan el panorama en abril de 2026. La IA se mueve rapido, asi que he incluido los mas relevantes a dia de hoy.

41. GPT-5

GPT-5 es el modelo mas avanzado de OpenAI, lanzado en la segunda mitad de 2025, con mejoras significativas en razonamiento, multimodalidad y seguimiento de instrucciones complejas. Introduce capacidades mejoradas de razonamiento largo (o1-style) directamente en el modelo base, eliminando la necesidad de modelos separados para razonamiento. Segun las evaluaciones internas publicadas por OpenAI el 3 de marzo de 2026, GPT-5 supera a GPT-4 en un 35% en GPQA y un 28% en SWE-bench.

42. Claude (Anthropic)

Claude es la familia de modelos de lenguaje desarrollada por Anthropic, conocida por su enfoque en seguridad, honestidad y capacidad de seguir instrucciones matizadas. En abril de 2026, la version mas avanzada es Claude Opus 4.6, con capacidades de razonamiento extendido, uso de herramientas y una ventana de contexto de 200K tokens. Claude se diferencia por su IA Constitucional (ver termino 40) y por ser especialmente bueno en tareas que requieren matiz, como analisis legal, redaccion creativa y programacion compleja.

43. Gemini (Google)

Gemini es la familia de modelos multimodales de Google, disenada desde su concepcion para procesar texto, imagenes, audio y video de forma nativa. Gemini 2.5 Pro, lanzado a principios de 2026, destaca por su ventana de contexto de 1 millon de tokens y su integracion profunda con el ecosistema de Google (Search, Workspace, Android). Su versión Flash es una de las opciones mas rapidas y baratas del mercado para aplicaciones en produccion.

44. Llama (Meta)

Llama es la familia de modelos de lenguaje abiertos de Meta, que ha democratizado el acceso a LLMs de alta calidad para investigadores y desarrolladores. Llama 4, lanzado en abril de 2025, introdujo la arquitectura Mixture of Experts (MoE) con 400B parametros totales pero solo 17B activos por token. Su licencia abierta (con restricciones comerciales menores) permite que cualquier persona lo descargue, modifique y despliegue. Es el modelo de referencia para la comunidad open source.

45. Mixture of Experts (MoE)

Mixture of Experts es una arquitectura donde el modelo tiene muchos "expertos" (subredes especializadas) pero solo activa una fraccion de ellos para cada token, reduciendo el coste computacional. Mixtral de Mistral AI fue el modelo que popularizo MoE en open source: tiene 46.700 millones de parametros totales pero solo activa 12.900 millones por token. El resultado es un modelo con la calidad de uno grande pero la velocidad de uno pequeno. En 2026, la mayoria de los modelos de nueva generacion (incluyendo Llama 4 y Gemini 2.5) usan alguna variante de MoE.

46. Stable Diffusion

Stable Diffusion es un modelo de codigo abierto de generacion de imagenes a partir de texto, desarrollado por Stability AI, que cualquiera puede descargar y ejecutar localmente. Su naturaleza abierta genero un ecosistema masivo de extensiones, modelos especializados y comunidades. Stable Diffusion 3.5 (2025) mejoro significativamente la coherencia anatomica y el seguimiento de prompts. Es la alternativa open source a DALL-E y Midjourney, y la opcion preferida si quieres control total sobre la generacion de imagenes.

47. DALL-E

DALL-E es el modelo de generacion de imagenes de OpenAI que crea imagenes a partir de descripciones de texto. DALL-E 3 (integrado en ChatGPT) destaca por su capacidad de seguir instrucciones detalladas y generar texto legible dentro de las imagenes. A diferencia de Stable Diffusion, DALL-E solo esta disponible a traves de la API de OpenAI o ChatGPT, no puedes descargarlo ni ejecutarlo localmente.

48. Whisper

Whisper es el modelo de reconocimiento de voz (speech-to-text) de OpenAI, de codigo abierto, entrenado con 680.000 horas de audio multilingue. Es sorprendentemente preciso en espanol y funciona bien incluso con acentos regionales y ruido de fondo. Puedes ejecutarlo localmente (hay versiones cuantizadas que corren en un portatil) o usarlo via la API de OpenAI. Es la base de muchas aplicaciones de transcripcion, subtitulado y asistentes de voz.

49. Sora

Sora es el modelo de generacion de video de OpenAI que crea videos realistas a partir de descripciones de texto. Presentado en febrero de 2024 y con acceso limitado durante 2025, Sora puede generar videos de hasta 60 segundos con una calidad cinematografica impresionante. Usa una arquitectura de Transformer de difusion (DiT) que trata los videos como colecciones de parches espacio-temporales. Aunque tiene limitaciones (fisica inconsistente, artefactos), representa un salto cualitativo en la generacion de video por IA.

50. DeepSeek

DeepSeek es un laboratorio chino de IA que irrumpio en la escena global en enero de 2025 con modelos que rivalizan con GPT-4 a una fraccion del coste de entrenamiento. DeepSeek-V3 demostro que se podia entrenar un modelo competitivo con los mejores del mundo usando significativamente menos recursos (estimaciones sugieren un 10-20% del coste de GPT-4). Su modelo de razonamiento DeepSeek-R1 fue open source y sacudio las valoraciones de empresas como NVIDIA. DeepSeek es la prueba de que la carrera de la IA no se gana solo con dinero.


Categoria 5: RAG, Agentes y Herramientas

Estos 10 terminos cubren como los modelos de lenguaje interactuan con el mundo real: acceden a datos actualizados, usan herramientas y toman acciones autonomas. Es una de las areas de mayor crecimiento en 2026.

51. RAG (Retrieval-Augmented Generation)

RAG es una tecnica que combina un modelo de lenguaje con un sistema de busqueda para que el modelo pueda acceder a informacion actualizada y verificable antes de generar una respuesta. En lugar de depender solo de lo que el modelo aprendio durante el entrenamiento (que puede estar desactualizado), RAG busca en bases de datos, documentos o internet, recupera la informacion relevante y la incluye en el contexto del modelo. Es la solucion mas practica para reducir alucinaciones y mantener las respuestas actualizadas. Si tu empresa quiere un chatbot que responda sobre tus productos, RAG es probablemente lo que necesitas.

52. Base de Datos Vectorial (Vector Database)

Una base de datos vectorial almacena embeddings (representaciones numericas) de textos, imagenes u otros datos, permitiendo buscar por similitud semantica en milisegundos. Cuando haces una pregunta a un sistema RAG, la base de datos vectorial encuentra los documentos mas relevantes comparando la cercanía matematica de los embeddings. Pinecone, Weaviate, Milvus, Chroma y Qdrant son las mas populares en 2026. Sin una base de datos vectorial, no puedes construir un sistema RAG eficiente a escala.

La busqueda por embeddings encuentra documentos relevantes basandose en el significado del texto, no en la coincidencia exacta de palabras clave. Si buscas "como reducir el consumo electrico", una busqueda tradicional necesita que el documento contenga esas palabras exactas. Una busqueda por embeddings tambien encontraria documentos sobre "eficiencia energetica" o "ahorro en la factura de la luz" porque entiende que el significado es similar. Es la base de los sistemas RAG modernos y una mejora enorme sobre la busqueda clasica.

54. Agente de IA (AI Agent)

Un agente de IA es un sistema que usa un modelo de lenguaje para razonar, planificar y ejecutar acciones autonomamente, interactuando con herramientas externas para completar tareas complejas. A diferencia de un chatbot que solo responde preguntas, un agente puede navegar por la web, escribir y ejecutar codigo, enviar emails o gestionar archivos. Claude Code (la herramienta con la que se escribio este articulo) es un ejemplo de agente: planifica, ejecuta comandos y escribe codigo de forma autonoma. Si quieres profundizar, consulta nuestra guia completa de agentes de IA.

55. Uso de Herramientas / Function Calling (Tool Use)

El tool use o function calling permite a un modelo de lenguaje invocar funciones externas (APIs, bases de datos, calculadoras) cuando necesita informacion o capacidades que no tiene por si mismo. Cuando le preguntas a Claude "que tiempo hace en Madrid" y te da la respuesta actual, no es que sepa el tiempo: ha llamado a una API meteorologica. El modelo decide cuando necesita una herramienta, genera los parametros correctos y procesa el resultado. Es lo que convierte a un modelo de lenguaje en un asistente verdaderamente util.

56. Cadena de Pensamiento (Chain-of-Thought / CoT)

Chain-of-Thought es una tecnica de prompting donde pides al modelo que razone paso a paso antes de dar su respuesta final, mejorando significativamente la precision en tareas complejas. En lugar de pedir "resuelve este problema", dices "piensa paso a paso y explica tu razonamiento". Esto activa un modo de procesamiento mas detallado que reduce errores. Fue descubierta por Google Brain en 2022 y desde entonces se ha integrado directamente en modelos como o1 de OpenAI y Claude, que razonan internamente antes de responder.

57. ReAct (Reasoning + Acting)

ReAct es un framework que combina el razonamiento (pensar) con la accion (interactuar con herramientas) en un ciclo iterativo: el modelo piensa, actua, observa el resultado y piensa de nuevo. Es el patron detras de la mayoria de agentes de IA modernos. Ejemplo: "Cual es el PIB per capita de Espana ajustado por inflacion" -> el modelo piensa que necesita buscar el PIB, busca en internet, observa el dato, piensa que necesita ajustar por inflacion, busca el IPC, calcula y responde. Cada paso es explicito y auditable.

58. MCP (Model Context Protocol)

MCP es un protocolo abierto creado por Anthropic que estandariza como los modelos de IA se conectan con fuentes de datos y herramientas externas. Piensa en MCP como el "USB de la IA": un estandar universal para que cualquier modelo pueda conectarse a cualquier herramienta (bases de datos, APIs, sistemas de archivos) de forma estandarizada. Antes de MCP, cada integracion requeria codigo personalizado. Con MCP, una vez que un servicio implementa el protocolo, cualquier modelo compatible puede usarlo. En 2026, ya hay cientos de servidores MCP disponibles para todo tipo de servicios.

59. IA Agentiva (Agentic AI)

La IA agentiva se refiere a sistemas de IA que pueden operar de forma autonoma durante periodos prolongados, tomando decisiones, ejecutando acciones y adaptandose sin intervencion humana constante. Es la evolucion natural de los chatbots: de responder preguntas a completar flujos de trabajo completos. Un ejemplo es un agente que recibe "organiza mi viaje a Barcelona la proxima semana" y busca vuelos, reserva hotel, crea un itinerario y te envia un resumen. Es la tendencia dominante en IA empresarial en 2026, aunque plantea preguntas importantes sobre control y supervision. Si quieres automatizar tareas con herramientas agentivas, nuestra guia de n8n para automatizacion es un buen punto de partida.

60. Orquestacion (Orchestration)

La orquestacion en IA es la gestion y coordinacion de multiples modelos, agentes o servicios de IA trabajando juntos para completar una tarea compleja. Es como un director de orquesta que coordina a los musicos: cada agente (musico) tiene una especialidad, y el orquestador decide quien actua, cuando y como se combinan los resultados. Frameworks como LangChain, CrewAI y AutoGen permiten construir sistemas orquestados donde un agente planifica, otro busca informacion, otro escribe codigo y otro revisa el resultado.


Categoria 6: Generacion de Contenido

Estos 10 terminos cubren las tecnologias de IA generativa mas alla del texto: imagenes, video, audio y sus variantes. Es el area que mas ha capturado la imaginacion publica.

61. Text-to-Image (Texto a Imagen)

Text-to-Image es la tecnologia que genera imagenes a partir de descripciones escritas en lenguaje natural. Escribes "un gato astronauta pintado al oleo estilo Rembrandt" y el modelo crea exactamente eso. DALL-E, Midjourney, Stable Diffusion y Flux son los modelos principales. La calidad ha avanzado tanto que en 2026 es genuinamente dificil distinguir muchas imagenes generadas de fotografias reales, lo que plantea desafios importantes en desinformacion y derechos de autor.

62. Text-to-Video (Texto a Video)

Text-to-Video genera videos a partir de descripciones textuales, una tecnologia que ha avanzado dramaticamente entre 2024 y 2026. Sora (OpenAI), Veo 2 (Google), Kling (Kuaishou) y Runway Gen-3 son los modelos principales. Los videos generados van de 4 a 60 segundos con resolucion de hasta 1080p. Las limitaciones principales siguen siendo la coherencia fisica (objetos que desafian la gravedad) y la consistencia temporal (elementos que cambian entre frames), pero la mejora respecto a 2024 es enorme.

63. Text-to-Speech (TTS / Texto a Voz)

Text-to-Speech convierte texto escrito en voz sintetica, y los modelos actuales producen audio indistinguible de una persona real. ElevenLabs, Bark, XTTS y el TTS de OpenAI lideran el mercado. Las voces sinteticas modernas capturan emociones, pausas naturales, entonacion y hasta respiraciones. Puedes clonar una voz con solo 15 segundos de audio de referencia. Las aplicaciones van desde audiolibros y podcasts hasta asistentes de voz y doblaje automatico de peliculas.

64. Speech-to-Text (STT / Voz a Texto)

Speech-to-Text convierte audio hablado en texto escrito, lo que comunmente llamamos transcripcion automatica. Whisper de OpenAI (ver termino 48) es el modelo de referencia en open source, con soporte para mas de 97 idiomas. Los sistemas modernos de STT alcanzan tasas de error del 5-8% en espanol (nivel comparable a un transcriptor humano promedio). Se usa en subtitulado automatico, transcripcion de reuniones, dictado medico y accesibilidad.

65. Image-to-Image (Imagen a Imagen)

Image-to-Image toma una imagen existente y la transforma segun instrucciones textuales, manteniendo la estructura original pero cambiando estilo, contenido o detalles. Puedes subir un boceto a lapiz y convertirlo en una ilustracion profesional, cambiar el estilo de una foto a pintura al oleo, o modificar elementos especificos ("cambia el coche rojo por uno azul"). Es la base del retoque fotografico por IA y esta transformando industrias como moda, arquitectura y diseno de interiores.

66. Inpainting

El inpainting es la tecnica de rellenar o modificar una region seleccionada de una imagen usando IA, manteniendo la coherencia con el resto de la imagen. Seleccionas un area (por ejemplo, un objeto que quieres eliminar), y el modelo genera nuevo contenido que encaja perfectamente con el entorno. Es como un "borrador magico" que no solo elimina sino que reconstruye. Photoshop lo integro como "Relleno generativo" y es una de las funciones de IA mas usadas en edicion de imagenes profesional.

67. ControlNet

ControlNet es una extension para modelos de difusion que permite controlar la generacion de imagenes usando guias estructurales como bordes, poses humanas, mapas de profundidad o bocetos. Sin ControlNet, un modelo de difusion genera imagenes "libres" que siguen el prompt pero no respetan una composicion especifica. Con ControlNet, puedes decirle "genera una imagen que siga exactamente esta pose" o "mantén esta estructura de bordes". Es la herramienta que convirtio la generacion de imagenes de un juguete a una herramienta profesional para disenadores y artistas.

68. Modelos de Difusion (Diffusion Models)

Los modelos de difusion generan contenido (imagenes, video, audio) aprendiendo a eliminar ruido progresivamente hasta obtener una salida coherente. El proceso de entrenamiento funciona al reves: se anade ruido gradualmente a datos reales hasta destruirlos, y el modelo aprende a revertir ese proceso. En la generacion, se parte de ruido puro y el modelo lo "limpia" paso a paso hasta crear una imagen. Stable Diffusion, DALL-E 3 y Sora usan esta arquitectura. Son los modelos generativos dominantes en 2026, habiendo superado a los GANs.

69. GAN (Generative Adversarial Network / Red Generativa Adversaria)

Un GAN consiste en dos redes neuronales que compiten entre si: una genera contenido falso (generador) y la otra intenta distinguirlo del real (discriminador), mejorando ambas en el proceso. Inventadas por Ian Goodfellow en 2014, los GANs dominaron la generacion de imagenes hasta 2022. StyleGAN podia generar caras humanas indistinguibles de fotografias reales. Aunque los modelos de difusion los han superado en calidad y versatilidad, los GANs siguen siendo utiles para tareas especificas como superresolucion de imagenes y generacion de datos sinteticos.

70. VAE (Variational Autoencoder)

Un VAE es un modelo generativo que aprende a comprimir datos a un "espacio latente" compacto y luego reconstruirlos, permitiendo generar nuevas muestras similares a los datos de entrenamiento. Piensa en un VAE como un compresor inteligente: comprime una imagen a un vector de numeros (codificacion) y puede reconstruir la imagen a partir de ese vector (decodificacion). Manipulando el vector, generas variaciones de la imagen original. Los VAEs son un componente clave dentro de Stable Diffusion (el encoder-decoder que convierte imagenes al espacio latente y viceversa).


Categoria 7: Infraestructura y Despliegue

Estos 10 terminos cubren el hardware y las herramientas necesarias para ejecutar modelos de IA. Si quieres usar modelos localmente o desplegar aplicaciones de IA, esta seccion es esencial para ti.

71. GPU (Graphics Processing Unit)

Una GPU es un procesador especializado en calculos paralelos masivos, y es el hardware fundamental para entrenar y ejecutar modelos de IA. Las GPUs de NVIDIA (A100, H100, H200, B200) dominan el mercado de IA. Una H100 cuesta aproximadamente 30.000 euros y puede ejecutar modelos que una CPU tardaria semanas en procesar. La razon: una GPU tiene miles de nucleos que calculan simultaneamente, ideal para las operaciones de matrices que necesitan las redes neuronales. El 90%+ del entrenamiento de modelos de IA del mundo se hace en GPUs NVIDIA.

GPUVRAMPrecio aprox.Uso tipico
RTX 40608 GB300 EURModelos 7B cuantizados
RTX 409024 GB1.600 EURModelos hasta 30B
A10080 GB10.000 EUREntrenamiento profesional
H10080 GB30.000 EUREntrenamiento LLMs grandes

72. TPU (Tensor Processing Unit)

Una TPU es un procesador disenado especificamente por Google para acelerar las operaciones de Machine Learning, especialmente el entrenamiento de modelos grandes. A diferencia de las GPUs (que sirven para muchas cosas), las TPUs estan optimizadas exclusivamente para IA. Google las usa internamente para entrenar Gemini y las ofrece a traves de Google Cloud. Son competitivas con las GPUs de NVIDIA en rendimiento, pero su disponibilidad esta limitada al ecosistema de Google. TPU v5p, la ultima generacion, fue lanzada en diciembre de 2023.

73. VRAM (Video RAM)

La VRAM es la memoria dedicada de una GPU, y es el factor que determina el tamano maximo de modelo de IA que puedes ejecutar localmente. Un modelo de 7B parametros en FP16 necesita unos 14 GB de VRAM. Un modelo de 70B necesita 140 GB (varias GPUs). Con cuantizacion a 4 bits, esas cifras se dividen por 4. Si quieres ejecutar modelos de IA en tu ordenador, la VRAM de tu GPU es la primera especificacion que debes comprobar. La RTX 4090 con 24 GB de VRAM es la opcion consumer mas popular para IA local.

74. CUDA

CUDA es la plataforma de computacion paralela de NVIDIA que permite programar GPUs para tareas generales, y es el estandar de facto para ejecutar modelos de IA. Casi todos los frameworks de IA (PyTorch, TensorFlow) dependen de CUDA. Esto explica el dominio de NVIDIA: incluso si AMD o Intel fabrican GPUs competitivas en hardware, el ecosistema de software esta construido sobre CUDA. Es un lock-in tecnologico que ha convertido a NVIDIA en una de las empresas mas valiosas del mundo.

75. Ollama

Ollama es una herramienta de codigo abierto que permite descargar y ejecutar modelos de lenguaje localmente en tu ordenador con un solo comando. Escribes ollama run llama3.2 y en minutos tienes un LLM funcionando en tu portatil sin conexion a internet y sin enviar datos a ningun servidor externo. Soporta decenas de modelos (Llama, Mistral, Gemma, Phi, CodeLlama) y formatos cuantizados para diferentes niveles de hardware. Es la forma mas facil de experimentar con IA local y la recomendacion principal si quieres empezar. Tenemos una guia completa de Ollama que te explica todo paso a paso.

76. GGUF / GGML

GGUF (antes GGML) es el formato de archivo mas popular para ejecutar modelos de lenguaje cuantizados en CPU y GPU consumer, desarrollado por Georgi Gerganov para el proyecto llama.cpp. Cuando descargas un modelo de Hugging Face para usarlo con Ollama o LM Studio, casi siempre esta en formato GGUF. Las variantes Q4_K_M, Q5_K_M o Q8_0 indican el nivel de cuantizacion (Q4 = 4 bits, mas pequeno y rapido; Q8 = 8 bits, mas fiel al original). GGUF reemplazo a GGML en agosto de 2023 y se ha convertido en el estandar para inferencia local.

77. API (Application Programming Interface)

Una API en el contexto de IA es la interfaz que te permite enviar texto a un modelo y recibir su respuesta de forma programatica, sin necesidad de una interfaz de chat. Cuando un desarrollador integra GPT-4 en su aplicacion, no copia y pega de ChatGPT: llama a la API de OpenAI con codigo. Las APIs de IA se facturan por tokens procesados. Las principales son la API de OpenAI, la API de Anthropic (Claude), la API de Google (Gemini) y la de Mistral. Usar APIs te permite automatizar tareas, integrar IA en tus propios productos y procesar miles de solicitudes sin intervencion manual.

78. Endpoint

Un endpoint es la URL especifica a la que tu aplicacion envia solicitudes para interactuar con un modelo de IA a traves de su API. Por ejemplo, https://api.openai.com/v1/chat/completions es el endpoint de chat de OpenAI. Cada funcionalidad tiene su propio endpoint: uno para chat, otro para embeddings, otro para imagenes. Si despliegas tu propio modelo con un framework como vLLM o TGI, tu creates tu propio endpoint. Es un concepto basico de desarrollo web que se aplica directamente al mundo de la IA.

79. Procesamiento por Lotes (Batch Processing)

El batch processing en IA consiste en agrupar multiples solicitudes y procesarlas juntas en lugar de una a una, reduciendo costes y aumentando la eficiencia. Si necesitas analizar 10.000 emails, es mucho mas eficiente (y barato) enviarlos todos en un lote que procesarlos uno por uno. Las APIs de OpenAI y Anthropic ofrecen endpoints de batch con descuentos de hasta el 50%. Es la forma estandar de procesar datos a escala con IA: analisis de sentimiento masivo, clasificacion de documentos, traduccion de catalogos, etc.

80. Edge AI (IA en el Borde)

Edge AI se refiere a ejecutar modelos de IA directamente en el dispositivo del usuario (movil, portatil, IoT) en lugar de enviar datos a un servidor en la nube. Las ventajas son claras: latencia minima (no depende de internet), privacidad total (los datos no salen del dispositivo) y funcionamiento offline. Apple Intelligence, Google On-Device AI y los SLMs como Phi-3 y Gemma 2 estan disenados para Edge AI. En 2026, los smartphones de gama alta ya ejecutan modelos de 3-7B parametros localmente para funciones como transcripcion, resumen y asistencia fotografica.


Categoria 8: Evaluacion y Benchmarks

Estos 10 terminos te permiten entender como se mide y compara el rendimiento de los modelos de IA. Cuando leas que "el modelo X supera al modelo Y en MMLU", sabras exactamente que significa.

81. MMLU (Massive Multitask Language Understanding)

MMLU es un benchmark que evalua el conocimiento general de un modelo en 57 materias academicas, desde matematicas y fisica hasta derecho e historia. Contiene 15.908 preguntas de opcion multiple de nivel universitario y de posgrado. Un resultado del 90% en MMLU (logrado por GPT-4 y Claude Opus 4.6) indica que el modelo tiene un conocimiento comparable al de un experto en la mayoria de campos. Es el benchmark mas citado para comparar LLMs, aunque su utilidad como unica medida esta cada vez mas cuestionada por la comunidad investigadora.

82. HumanEval

HumanEval es un benchmark que mide la capacidad de un modelo para escribir codigo correcto a partir de descripciones en lenguaje natural. Creado por OpenAI con 164 problemas de programacion en Python, el modelo debe generar funciones que pasen todos los tests unitarios. En abril de 2026, los mejores modelos superan el 90% en HumanEval, comparado con el 67% de GPT-3.5 en 2023. Se ha complementado con HumanEval+ (mas tests por problema) y MultiPL-E (multiples lenguajes de programacion).

83. SWE-bench

SWE-bench evalua la capacidad de un modelo para resolver issues reales de repositorios de GitHub, midiendo su habilidad como ingeniero de software completo. A diferencia de HumanEval (que son problemas aislados), SWE-bench requiere entender un codebase grande, localizar el bug y generar un parche correcto. Contiene 2.294 issues de 12 repositorios Python populares. En abril de 2026, los mejores agentes de IA resuelven alrededor del 50-60% de los issues, un avance enorme desde el 4% de enero de 2024.

84. GPQA (Graduate-Level Google-Proof Q&A)

GPQA es un benchmark con preguntas de nivel de doctorado en fisica, quimica y biologia que ni siquiera expertos con acceso a Google pueden responder facilmente. Fue creado para medir el razonamiento cientifico avanzado de los modelos. Los expertos humanos con acceso a internet aciertan el 65%; los mejores LLMs de 2026 superan el 60%. Es uno de los benchmarks mas dificiles y mas representativos de la capacidad de razonamiento profundo de un modelo.

85. ARC-AGI

ARC-AGI (Abstraction and Reasoning Corpus) es un benchmark disenado especificamente para medir la inteligencia general: la capacidad de resolver problemas nuevos que el modelo nunca ha visto. Creado por Francois Chollet, cada problema es un puzzle visual unico que requiere razonamiento abstracto. Los humanos aciertan el 85%; los mejores modelos de 2026 rondan el 55-65% (con tecnicas especializadas). ARC-AGI es considerado el test mas honesto de inteligencia artificial porque no puede resolverse memorizando datos de entrenamiento.

86. Perplejidad (Perplexity - metrica)

La perplejidad es una metrica que mide lo "sorprendido" que esta un modelo de lenguaje ante un texto: cuanto menor es, mejor predice el modelo la siguiente palabra. Una perplejidad de 1 significaria prediccion perfecta; valores tipicos para LLMs modernos estan entre 5 y 20 en texto general. Es la metrica clasica para evaluar modelos de lenguaje, aunque no siempre correlaciona directamente con la utilidad practica del modelo. No confundir con Perplexity AI, el buscador de IA, que toma su nombre de esta metrica.

87. BLEU (Bilingual Evaluation Understudy)

BLEU es una metrica para evaluar la calidad de texto generado por maquina (especialmente traducciones) comparandolo con textos de referencia humanos. Mide cuantas palabras y frases del texto generado coinciden con las del texto de referencia. Va de 0 a 1, donde 1 seria una coincidencia perfecta. Fue el estandar para evaluar traducciones automaticas durante dos decadas, aunque en 2026 se ha complementado con metricas como COMET y BERTScore que capturan mejor la calidad semantica.

88. F1 Score

El F1 Score es la media harmonica entre precision (cuantos de los positivos predichos son realmente positivos) y recall (cuantos positivos reales fueron detectados). Va de 0 a 1 y es la metrica estandar para tareas de clasificacion, especialmente cuando las clases estan desequilibradas. Por ejemplo, en un detector de spam: precision es "de los emails marcados como spam, cuantos realmente lo eran" y recall es "de todos los emails spam, cuantos detectamos". Un F1 de 0,95 es excelente.

89. Elo Rating (Sistema Elo)

El sistema Elo es un metodo de clasificacion competitiva (originalmente del ajedrez) aplicado a los modelos de IA, donde los modelos se comparan directamente y ganan o pierden puntos segun los resultados. LMSYS Chatbot Arena usa Elo para clasificar modelos de lenguaje: humanos comparan respuestas de dos modelos anonimos y eligen la mejor. Un modelo con Elo 1300 es significativamente mejor que uno con 1200. En abril de 2026, los modelos top (Claude Opus 4.6, GPT-5, Gemini 2.5 Pro) estan en el rango 1280-1310. Es la clasificacion mas respetada porque refleja la preferencia humana directa.

90. Arena (Chatbot Arena / LMSys Arena)

Chatbot Arena es una plataforma de evaluacion abierta donde humanos comparan respuestas anonimas de diferentes modelos de IA, generando un ranking Elo de los mejores modelos del mundo. Gestionada por LMSYS (UC Berkeley), ha procesado millones de comparaciones humanas desde su creacion. Es considerada la evaluacion mas honesta porque los usuarios no saben que modelos estan comparando, eliminando sesgos de marca. Cuando un nuevo modelo quiere demostrar que es "el mejor", publicar su puntuacion de Arena es la prueba mas convincente.


Categoria 9: Etica, Seguridad y Regulacion

Estos 5 terminos cubren los aspectos no tecnicos de la IA que son igualmente importantes para entender el panorama completo.

91. Seguridad en IA (AI Safety)

AI Safety es el campo de investigacion dedicado a garantizar que los sistemas de IA se comporten de forma segura, predecible y alineada con los valores humanos, especialmente a medida que se vuelven mas capaces. No se trata de robots asesinos de ciencia ficcion, sino de problemas reales: un modelo que da consejos medicos incorrectos, un sistema autonomo que toma decisiones daninas o un agente de IA que interpreta instrucciones de forma literal y destructiva. Anthropic, OpenAI y DeepMind tienen equipos dedicados de AI Safety con cientos de investigadores.

92. Alineacion (Alignment)

La alineacion es el problema de conseguir que un sistema de IA haga lo que el usuario realmente quiere, no solo lo que literalmente le pide, y que lo haga sin efectos secundarios daninos. El ejemplo clasico: "maximiza la produccion de clips" tomado literalmente podria llevar a una IA a convertir todo el planeta en clips. En la practica, la alineacion se trabaja con RLHF, DPO, IA Constitucional y otras tecnicas que ensena al modelo a interpretar instrucciones con sentido comun y rechazar peticiones peligrosas. Es el Gran Problema abierto de la IA.

93. Alucinacion (Hallucination)

Una alucinacion es cuando un modelo de IA genera informacion que suena convincente y segura pero que es completamente falsa o inventada. Un LLM puede citar papers que no existen, inventar estadisticas con fuentes ficticias o dar instrucciones tecnicas incorrectas con total confianza. Es el problema mas grave de los LLMs actuales para casos de uso profesionales. RAG (termino 51) reduce las alucinaciones dando al modelo acceso a datos verificados, pero no las elimina completamente. Cualquier persona que use IA para trabajo profesional debe verificar siempre las afirmaciones criticas.

94. EU AI Act (Ley Europea de IA)

El EU AI Act es la primera legislacion integral del mundo que regula la inteligencia artificial, aprobada por el Parlamento Europeo en marzo de 2024 y en fase de implementacion progresiva hasta 2027. Clasifica los sistemas de IA por nivel de riesgo: inaceptable (prohibidos: scoring social, reconocimiento facial masivo), alto riesgo (regulados: IA medica, crediticia, judicial), limitado (transparencia obligatoria: chatbots) y minimo (libre: filtros de spam, videojuegos). Si desarrollas o usas IA en Europa, te afecta directamente. Las sanciones llegan hasta el 7% de la facturacion global.

95. Sesgo y Equidad (Bias & Fairness)

El sesgo algoritmico es la tendencia de un sistema de IA a producir resultados sistematicamente injustos para ciertos grupos demograficos, y la equidad (fairness) es el esfuerzo activo por detectar y corregir estos sesgos. Los modelos aprenden de datos historicos que reflejan desigualdades humanas: si los datos de contratacion muestran que historicamente se contrataba mas a hombres, el modelo reproducira ese sesgo. La equidad en IA no es solo un problema tecnico (mejorar los datos) sino tambien filosofico (que significa "justo" en cada contexto). En 2026, la auditoria de sesgos es un requisito legal en la UE para sistemas de IA de alto riesgo.


Categoria 10: Tendencias 2026

Estos 5 terminos representan la frontera de la IA en abril de 2026. Son los conceptos que mas veras en noticias, investigacion y conferencias durante este ano.

96. AGI (Artificial General Intelligence / Inteligencia Artificial General)

AGI es una inteligencia artificial hipotetica con la capacidad de entender, aprender y aplicar conocimiento en cualquier dominio intelectual al nivel de un ser humano, o por encima. A diferencia de la IA actual (que es "estrecha": cada modelo es bueno en tareas especificas), una AGI podria aprender cualquier cosa sin entrenamiento especifico. No existe todavia. Cuando llegara es el gran debate: Sam Altman (OpenAI) ha sugerido que podria ser antes de 2030; otros investigadores como Yann LeCun (Meta) creen que estamos a decadas de distancia. Lo que si es cierto es que cada nueva generacion de modelos se acerca mas a capacidades generales.

97. ASI (Artificial Superintelligence / Superinteligencia Artificial)

ASI es una inteligencia artificial hipotetica que superaria a la inteligencia humana en todos los dominios cognitivos: creatividad, resolucion de problemas, razonamiento social y cientifico. Es una IA que no solo iguala al mejor humano en cada campo, sino que lo supera. Es un concepto principalmente teorico en 2026, pero que motiva gran parte de la investigacion en AI Safety. El argumento: si creamos una ASI sin alinearla correctamente con valores humanos, las consecuencias podrian ser irreversibles. Nick Bostrom (Universidad de Oxford) y Stuart Russell (UC Berkeley) son los investigadores mas influyentes en este campo.

98. IA Multimodal (Multimodal AI)

La IA multimodal procesa y genera multiples tipos de datos (texto, imagenes, audio, video) de forma integrada, en lugar de tratar cada tipo por separado. GPT-4V, Gemini 2.5 y Claude Opus 4.6 son todos multimodales: puedes subirles una foto y preguntar sobre ella, o pedir que generen una imagen mientras redactan un texto. La tendencia en 2026 es la multimodalidad nativa: modelos entrenados desde el inicio con todos los tipos de datos, no modelos de texto a los que se les "anaden" capacidades visuales despues. Es la direccion clara hacia la que avanza toda la industria.

99. IA Agentiva (Agentic AI - tendencia)

La IA agentiva como tendencia en 2026 se refiere a la explosion de sistemas autonomos que van mas alla de responder preguntas y pueden completar flujos de trabajo complejos de principio a fin. En 2024, la IA era principalmente conversacional. En 2026, los agentes de IA escriben y despliegan codigo, gestionan pipelines de datos, analizan mercados y toman decisiones operativas. Claude Code, Devin, GitHub Copilot Workspace y Cursor son ejemplos de agentes de desarrollo. El desafio principal ya no es la capacidad sino la fiabilidad: un agente que acierta el 95% de las veces sigue fallando 1 de cada 20 acciones.

100. World Models (Modelos del Mundo)

Un World Model es un modelo de IA que construye una representacion interna de como funciona el mundo fisico, permitiendo predecir las consecuencias de acciones y planificar a largo plazo. Es la frontera mas ambiciosa de la investigacion en IA en 2026. Yann LeCun (Chief AI Scientist de Meta) los considera el paso necesario hacia la AGI: en lugar de modelos que solo predicen la siguiente palabra, necesitamos modelos que entiendan causa y efecto, fisica intuitiva y consecuencias de acciones. Sora de OpenAI fue uno de los primeros indicios de que los modelos de video aprenden implicitamente algo parecido a la fisica. Es un campo en etapas muy tempranas pero con un potencial transformador.


Errores Comunes al Aprender Terminologia de IA

Despues de trabajar con decenas de equipos que adoptan IA por primera vez, estos son los errores mas frecuentes que veo al enfrentarse a la terminologia. Reconocerlos te ahorrara semanas de confusion.

Error 1: Confundir IA con Machine Learning con Deep Learning

Problema: Usar los tres terminos indistintamente, como si fueran sinonimos.

Solucion: Son capas anidadas. IA es el campo general (maquinas que imitan inteligencia humana). Machine Learning es un subcampo de IA (maquinas que aprenden de datos). Deep Learning es un subcampo de ML (ML con redes neuronales profundas). Todo Deep Learning es ML, todo ML es IA, pero no al reves.

Error 2: Pensar que mas parametros siempre significa mejor modelo

Problema: Asumir que un modelo de 70B siempre supera a uno de 7B.

Solucion: Depende enormemente de la tarea, la calidad de los datos de entrenamiento y las tecnicas de optimizacion. Phi-3 Mini (3.8B parametros) supera a Llama 2 70B en varios benchmarks. Mixtral 8x7B (46.7B totales, 12.9B activos) compite con modelos de 70B. La eficiencia del entrenamiento importa tanto o mas que el tamano bruto.

Error 3: Confundir tokens con palabras

Problema: Asumir que 1 token = 1 palabra y calcular mal costes y limites de contexto.

Solucion: En ingles, 1 token son aproximadamente 0,75 palabras. En espanol, la relacion es peor: 1 palabra puede consumir 1,5-2 tokens porque los tokenizadores estan optimizados para ingles. 128K tokens no son 128.000 palabras en espanol, sino unas 64.000-85.000. Ten esto en cuenta al calcular costes de API y limites de contexto.

Error 4: Creer que RAG elimina las alucinaciones

Problema: Implementar RAG y asumir que el modelo ya no se inventara nada.

Solucion: RAG reduce significativamente las alucinaciones (entre un 40% y un 70% segun varios estudios) pero no las elimina. El modelo puede ignorar el contexto recuperado, mezclar informacion de diferentes fragmentos o rellenar huecos con informacion inventada. Siempre necesitas verificacion humana para informacion critica y, cuando sea posible, citas explicitas de las fuentes.


Preguntas Frecuentes

Cual es la diferencia entre machine learning y deep learning explicada simple?

Machine Learning es aprender patrones de datos; Deep Learning es hacerlo con redes neuronales de muchas capas. El ML clasico (random forests, regresion logistica, SVM) requiere que tu definas manualmente que caracteristicas de los datos son relevantes. El Deep Learning descubre las caracteristicas relevantes solo. El ML clasico funciona bien con pocos datos y es mas explicable. El Deep Learning necesita muchos datos pero logra resultados superiores en vision, lenguaje y audio. En la practica, usa ML clasico para datos tabulares (hojas de calculo) y Deep Learning para texto, imagenes, audio y video.

Que es un LLM y como funciona?

Un LLM (Large Language Model) es un modelo de deep learning entrenado con cantidades masivas de texto que puede comprender y generar lenguaje humano. Funciona prediciendo la siguiente palabra mas probable dado un contexto. Cuando le preguntas algo, no "piensa" como un humano: calcula probabilidades sobre miles de millones de posibles continuaciones y elige la mas coherente. Ha leido tanta cantidad de texto durante el entrenamiento que esas predicciones resultan sorprendentemente utiles e inteligentes. Los LLMs mas conocidos son GPT-4, Claude y Gemini.

Que significa RAG en inteligencia artificial y para que sirve?

RAG (Retrieval-Augmented Generation) significa Generacion Aumentada por Recuperacion, y sirve para que un modelo de IA acceda a informacion actualizada y verificable antes de responder. Sin RAG, el modelo solo sabe lo que aprendio durante el entrenamiento (que puede estar desactualizado o ser incompleto). Con RAG, cuando le haces una pregunta, primero busca en una base de datos de documentos relevantes, recupera los mas utiles y los usa como contexto para generar su respuesta. Es la solucion mas practica para chatbots empresariales que necesitan responder sobre documentacion interna.

Necesito una GPU para usar inteligencia artificial?

Para usar IA a traves de servicios en la nube (ChatGPT, Claude, Gemini), no necesitas ninguna GPU. Solo necesitas una GPU si quieres ejecutar modelos localmente en tu ordenador. Para modelos pequenos (3-7B parametros cuantizados), una GPU con 8 GB de VRAM es suficiente. Para modelos medianos (13-30B), necesitas 16-24 GB. Algunos modelos pueden ejecutarse incluso en CPU, aunque mucho mas lento. Ollama facilita enormemente este proceso (ver termino 75).

Que es fine-tuning y cuando lo necesito?

Fine-tuning es re-entrenar un modelo existente con datos especificos de tu dominio para que se especialice en tus necesidades. Lo necesitas cuando el modelo general no cumple con tus requisitos de calidad, formato de respuesta o conocimiento especializado. Por ejemplo: un despacho de abogados que quiere un modelo que responda en formato juridico espanol, o una empresa que necesita un modelo que conozca su catalogo de productos. No lo necesitas si un buen prompt o RAG ya resuelven tu problema, que es el caso para la mayoria de usos.

Que diferencia hay entre un chatbot y un agente de IA?

Un chatbot responde preguntas; un agente de IA planifica, razona y ejecuta acciones autonomamente para completar tareas complejas. Un chatbot espera tu pregunta y responde. Un agente recibe un objetivo ("reserva un vuelo barato a Barcelona para el viernes") y autonomamente busca opciones, compara precios, selecciona el mejor y te lo presenta o incluso lo reserva. Los agentes usan herramientas externas (APIs, navegador, codigo) mientras que los chatbots tipicamente solo generan texto.

Es seguro usar modelos de IA para decisiones importantes?

Los modelos de IA son herramientas utiles de apoyo para decisiones, pero no deben ser el unico factor de decision en contextos criticos como salud, finanzas o justicia. Las alucinaciones, los sesgos y la falta de comprension real del contexto hacen que la supervision humana sea imprescindible. El EU AI Act (termino 94) obliga a que los sistemas de IA de alto riesgo tengan supervisión humana integrada. Usa la IA para generar opciones, analizar datos y detectar patrones, pero que la decision final siempre sea tuya.


Conclusion

"Dominar la terminologia de IA no es un ejercicio academico: es la diferencia entre entender lo que esta pasando y ser un espectador pasivo de la mayor transformacion tecnologica de nuestra generacion." -- Javier Santos Criado, consultor de IA en Javadex

Este diccionario cubre los 100 terminos que necesitas para moverte con confianza en el mundo de la inteligencia artificial en 2026. Pero la terminologia evoluciona tan rapido como la propia tecnologia: en 6 meses habra conceptos nuevos que hoy ni existen. Lo actualizo regularmente, asi que puedes guardar esta pagina como referencia permanente.

Si quieres ir mas alla del vocabulario y empezar a aplicar estos conceptos, te recomiendo tres pasos concretos:

  1. Empieza por lo practico: instala Ollama y ejecuta un modelo en tu ordenador. Nada te ensena mas que experimentar.
  2. Sigue formandote: nuestra guia para aprender IA desde cero y la lista de cursos gratuitos de IA en espanol son tus proximos pasos.
  3. Mantente al dia: la IA cambia cada semana. Consulta nuestro ranking actualizado de las mejores IAs para saber que modelos lideran en cada momento.

Aprender estos terminos te coloca en una posicion privilegiada. Mientras otros discuten sobre IA repitiendo titulares, tu entiendes la sustancia detras de cada concepto. Y eso, en un mercado laboral donde la IA redefine roles y crea oportunidades, es una ventaja competitiva que vale mucho mas que las horas que has invertido leyendo este glosario.


Fuentes

  • Vaswani, A. et al. "Attention Is All You Need." arXiv:1706.03762. Google Brain, junio de 2017.
  • Ouyang, L. et al. "Training language models to follow instructions with human feedback (InstructGPT)." OpenAI, marzo de 2022.
  • Dettmers, T. et al. "QLoRA: Efficient Finetuning of Quantized Language Models." arXiv:2305.14314, mayo de 2023.
  • Hu, E. et al. "LoRA: Low-Rank Adaptation of Large Language Models." arXiv:2106.09685, Microsoft, 2021.
  • Bai, Y. et al. "Constitutional AI: Harmlessness from AI Feedback." Anthropic, diciembre de 2022.
  • Chollet, F. "On the Measure of Intelligence." arXiv:1911.01547, noviembre de 2019.
  • McKinsey Global Institute. "The State of AI in 2026: Adoption and Impact." Enero de 2026.
  • European Parliament. "EU AI Act: First Comprehensive AI Law." Marzo de 2024.
  • LMSYS Org. "Chatbot Arena Leaderboard." UC Berkeley. Actualizado abril de 2026.
  • Rafailov, R. et al. "Direct Preference Optimization: Your Language Model is Secretly a Reward Model." arXiv:2305.18290, mayo de 2023.


Posts Relacionados


En Resumen

  • Este diccionario cubre 100 terminos de IA organizados en 10 categorias, desde fundamentos hasta las tendencias mas avanzadas de 2026.
  • Los LLMs (modelos de lenguaje grandes) como GPT-5, Claude Opus 4.6 y Gemini 2.5 son la tecnologia central de la IA conversacional y se basan en la arquitectura Transformer de 2017.
  • RAG, agentes y tool use son las tecnicas que conectan los modelos de IA con el mundo real, permitiendoles acceder a informacion actualizada y ejecutar acciones autonomas.
  • Fine-tuning con LoRA/QLoRA ha democratizado la personalizacion de modelos, permitiendo ajustar LLMs de 70B parametros en hardware consumer.
  • La evaluacion de modelos se hace con benchmarks como MMLU, HumanEval y SWE-bench, pero el ranking Elo de Chatbot Arena sigue siendo la referencia mas fiable.
  • La regulacion (EU AI Act) y la seguridad (AI Safety, alineacion) son tan importantes como la tecnologia misma, y afectan directamente a cualquier persona que desarrolle o use IA en Europa.
  • Dominar estos 100 terminos te da una base solida para entender cualquier articulo, curso o conversacion sobre inteligencia artificial, y te ahorra decenas de horas de confusion. Guarda este glosario como referencia y consultalo cada vez que te topes con un concepto nuevo.

Formación y consultoría en IA para empresas

Formo a equipos técnicos y de negocio para adoptar Claude Code, programación agéntica e IA aplicada con resultados desde la primera semana.

  • Claude Code para developers senior (presencial)
  • IA para perfiles de negocio (presencial)
  • 100% personalizado al stack de tu equipo
  • Sesión de diagnóstico gratuita (30 min)
📬

¿Te ha gustado? Hay más cada semana

Únete a "IA Sin Humo" — la newsletter donde comparto lo que realmente funciona en inteligencia artificial. Sin teoría innecesaria, sin postureo.

📚

1 Tutorial

Paso a paso, práctico

🛠️

3 Herramientas

Probadas y útiles

💡

0 Bullshit

Solo lo que importa

+547 suscriptores • Cada martes • Cancela cuando quieras

Javier Santos - Especialista en IA & Machine Learning

Javier Santos

Consultor de IA para empresas. Comparto contenido sobre inteligencia artificial, automatización y desarrollo cada semana.