Glosario de IA
Diccionario completo de términos de Inteligencia Artificial, Machine Learning y LLMs explicados de forma clara y práctica.
Guías Completas
¿Qué es RAG?
Retrieval Augmented Generation explicado paso a paso con ejemplos prácticos.
- → Cómo funciona RAG paso a paso
- → Cuándo usar RAG en tu empresa
- → RAG vs Fine-tuning diferencias
¿Qué es un LLM?
Large Language Models: GPT-4, Claude, Llama comparados y explicados.
- → Mejores LLMs en 2025 comparativa
- → Qué puede hacer un LLM
- → Cuál LLM elegir para mi proyecto
¿Qué es Prompt Engineering?
Aprende a escribir prompts efectivos para ChatGPT y Claude.
- → Técnicas de prompt engineering
- → Ejemplos prompt bueno vs malo
- → Mejores prácticas con LLMs
AGI (Artificial General Intelligence)#que-es-agi
Inteligencia artificial hipotética capaz de realizar cualquier tarea intelectual que un humano pueda hacer. A diferencia de la IA actual (narrow AI), AGI tendría comprensión general y transferencia de conocimiento entre dominios.
API (Application Programming Interface)#que-es-api
Interfaz que permite a diferentes aplicaciones comunicarse entre sí. En IA, las APIs permiten integrar modelos como GPT-4 o Claude en tus propias aplicaciones.
Attention Mechanism#que-es-attention-mechanism
Técnica que permite a los modelos de IA enfocarse en partes relevantes de la entrada. Es la base de los Transformers y permite procesar secuencias largas de manera eficiente.
Backpropagation#que-es-backpropagation
Algoritmo fundamental para entrenar redes neuronales. Calcula cómo ajustar los pesos de la red propagando el error desde la salida hacia las capas anteriores.
BERT#que-es-bert
Bidirectional Encoder Representations from Transformers. Modelo de Google que revolucionó el NLP al procesar texto en ambas direcciones simultáneamente.
Chatbot#que-es-chatbot
Programa que simula conversaciones humanas. Los chatbots modernos usan LLMs para entender contexto y generar respuestas naturales y relevantes.
Computer Vision#que-es-computer-vision
Campo de la IA que permite a las máquinas interpretar imágenes y vídeos. Incluye tareas como detección de objetos, reconocimiento facial y clasificación de imágenes.
Context Window#que-es-context-window
Cantidad máxima de tokens que un LLM puede procesar en una sola interacción. GPT-4 Turbo tiene 128K tokens, Claude 3 tiene 200K tokens.
CNN (Convolutional Neural Network)#que-es-cnn
Tipo de red neuronal especializada en procesar datos con estructura de cuadrícula, como imágenes. Usa filtros convolucionales para detectar patrones.
Deep Learning#que-es-deep-learning
Subcampo del machine learning que usa redes neuronales con múltiples capas. Permite aprender representaciones jerárquicas de los datos automáticamente.
Diffusion Model#que-es-diffusion-model
Tipo de modelo generativo que aprende a crear datos añadiendo y luego eliminando ruido gradualmente. Base de DALL-E, Midjourney y Stable Diffusion.
Embedding#que-es-embedding
Representación numérica de datos (texto, imágenes) en un espacio vectorial. Permite que las máquinas comparen y procesen conceptos semánticamente.
Epoch#que-es-epoch
Una pasada completa por todo el dataset de entrenamiento. Los modelos típicamente necesitan múltiples epochs para converger.
Few-Shot Learning#que-es-few-shot-learning
Técnica donde el modelo aprende de muy pocos ejemplos. En LLMs, se logra incluyendo ejemplos en el prompt para guiar el comportamiento.
Fine-Tuning#que-es-fine-tuning
Proceso de ajustar un modelo pre-entrenado para una tarea específica. Permite personalizar LLMs con datos propios sin entrenar desde cero.
Foundation Model#que-es-foundation-model
Modelo de IA entrenado con grandes cantidades de datos que sirve como base para múltiples aplicaciones. GPT-4, Claude y LLaMA son foundation models.
Generative AI#que-es-generative-ai
IA capaz de crear contenido nuevo: texto, imágenes, audio, código. Incluye LLMs, modelos de difusión y GANs.
GPT (Generative Pre-trained Transformer)#que-es-gpt
Familia de modelos de OpenAI entrenados para generar texto. GPT-4 es uno de los LLMs más avanzados actualmente.
Gradient Descent#que-es-gradient-descent
Algoritmo de optimización que ajusta los parámetros del modelo en la dirección que reduce el error. Base del entrenamiento de redes neuronales.
Hallucination#que-es-hallucination
Cuando un LLM genera información falsa o inventada que suena plausible. Es uno de los principales desafíos de los modelos actuales.
Hyperparameter#que-es-hyperparameter
Parámetro que se configura antes del entrenamiento y no se aprende. Incluye learning rate, batch size, número de capas, etc.
Inference#que-es-inference
Proceso de usar un modelo entrenado para hacer predicciones con datos nuevos. Es la fase de 'producción' después del entrenamiento.
LangChain#que-es-langchain
Framework popular para desarrollar aplicaciones con LLMs. Facilita la creación de cadenas de prompts, RAG, agentes y más.
LLM (Large Language Model)#que-es-llm
Modelo de lenguaje entrenado con enormes cantidades de texto. Puede generar, traducir, resumir y razonar sobre texto. Ejemplos: GPT-4, Claude, LLaMA.
LoRA (Low-Rank Adaptation)#que-es-lora
Técnica eficiente de fine-tuning que añade pequeñas matrices entrenables al modelo. Reduce drásticamente los recursos necesarios para personalizar LLMs.
Machine Learning#que-es-machine-learning
Subcampo de la IA donde los sistemas aprenden patrones de los datos sin ser programados explícitamente. Incluye supervised, unsupervised y reinforcement learning.
MCP (Model Context Protocol)#que-es-mcp
Protocolo abierto de Anthropic que permite a los LLMs conectarse con aplicaciones externas de forma estandarizada. Facilita integraciones robustas.
MLOps#que-es-mlops
Prácticas para desplegar y mantener modelos de ML en producción. Combina ML, DevOps e ingeniería de datos.
Multimodal#que-es-multimodal
Modelos capaces de procesar múltiples tipos de datos: texto, imágenes, audio, vídeo. GPT-4V y Claude 3 son multimodales.
Neural Network#que-es-neural-network
Modelo computacional inspirado en el cerebro, compuesto por neuronas artificiales organizadas en capas. Base del deep learning moderno.
NLP (Natural Language Processing)#que-es-nlp
Campo de la IA enfocado en la interacción entre computadoras y lenguaje humano. Incluye traducción, análisis de sentimiento, Q&A, etc.
Overfitting#que-es-overfitting
Cuando un modelo aprende demasiado bien los datos de entrenamiento y falla con datos nuevos. El modelo 'memoriza' en lugar de 'generalizar'.
Parameter#que-es-parameter
Valores numéricos que el modelo aprende durante el entrenamiento. GPT-4 tiene ~1.7 trillones de parámetros.
Prompt#que-es-prompt
Texto de entrada que se proporciona a un LLM para obtener una respuesta. Diseñar buenos prompts es clave para resultados óptimos.
Prompt Engineering#que-es-prompt-engineering
Arte y ciencia de diseñar prompts efectivos para LLMs. Incluye técnicas como few-shot, chain-of-thought, y role prompting.
RAG (Retrieval Augmented Generation)#que-es-rag
Técnica que mejora las respuestas de LLMs buscando información relevante en una base de conocimiento antes de generar. Reduce alucinaciones y permite usar datos propios.
Reinforcement Learning#que-es-reinforcement-learning
Paradigma de ML donde un agente aprende mediante prueba y error, recibiendo recompensas por acciones correctas. Usado en RLHF para alinear LLMs.
RLHF (Reinforcement Learning from Human Feedback)#que-es-rlhf
Técnica para alinear LLMs con preferencias humanas usando feedback de evaluadores. Clave para hacer modelos más útiles y seguros.
Semantic Search#que-es-semantic-search
Búsqueda basada en el significado del texto, no solo coincidencia de palabras clave. Usa embeddings para encontrar contenido semánticamente similar.
Supervised Learning#que-es-supervised-learning
Tipo de ML donde el modelo aprende de datos etiquetados. Cada ejemplo tiene una entrada y la respuesta correcta esperada.
Temperature#que-es-temperature
Parámetro que controla la aleatoriedad de las respuestas de un LLM. Valores bajos = más determinista, valores altos = más creativo/aleatorio.
Token#que-es-token
Unidad básica de texto que procesan los LLMs. Puede ser una palabra, parte de palabra o carácter. 1 token ≈ 4 caracteres en inglés.
Transformer#que-es-transformer
Arquitectura de red neuronal basada en atención que revolucionó el NLP. Base de GPT, BERT, Claude y la mayoría de LLMs modernos.
Transfer Learning#que-es-transfer-learning
Técnica donde un modelo entrenado en una tarea se adapta para otra relacionada. Permite aprovechar conocimiento previo con menos datos.
Vector Database#que-es-vector-database
Base de datos optimizada para almacenar y buscar vectores (embeddings). Esencial para RAG y búsqueda semántica. Ejemplos: Pinecone, Weaviate, FAISS.
Zero-Shot Learning#que-es-zero-shot-learning
Capacidad de un modelo para realizar tareas sin ejemplos específicos, solo con instrucciones. Los LLMs modernos destacan en zero-shot.