Glosario de IA

Diccionario completo de términos de Inteligencia Artificial, Machine Learning y LLMs explicados de forma clara y práctica.

A

AGI (Artificial General Intelligence)#que-es-agi

Inteligencia artificial hipotética capaz de realizar cualquier tarea intelectual que un humano pueda hacer. A diferencia de la IA actual (narrow AI), AGI tendría comprensión general y transferencia de conocimiento entre dominios.

Relacionado:AINarrow AIStrong AI

API (Application Programming Interface)#que-es-api

Interfaz que permite a diferentes aplicaciones comunicarse entre sí. En IA, las APIs permiten integrar modelos como GPT-4 o Claude en tus propias aplicaciones.

Relacionado:REST APIOpenAI APIWebhook

Attention Mechanism#que-es-attention-mechanism

Técnica que permite a los modelos de IA enfocarse en partes relevantes de la entrada. Es la base de los Transformers y permite procesar secuencias largas de manera eficiente.

Relacionado:TransformerSelf-AttentionMulti-Head Attention
B

Backpropagation#que-es-backpropagation

Algoritmo fundamental para entrenar redes neuronales. Calcula cómo ajustar los pesos de la red propagando el error desde la salida hacia las capas anteriores.

Relacionado:Gradient DescentNeural NetworkTraining

BERT#que-es-bert

Bidirectional Encoder Representations from Transformers. Modelo de Google que revolucionó el NLP al procesar texto en ambas direcciones simultáneamente.

Relacionado:TransformerNLPEmbeddings
C

Chatbot#que-es-chatbot

Programa que simula conversaciones humanas. Los chatbots modernos usan LLMs para entender contexto y generar respuestas naturales y relevantes.

Relacionado:LLMConversational AINLU

Computer Vision#que-es-computer-vision

Campo de la IA que permite a las máquinas interpretar imágenes y vídeos. Incluye tareas como detección de objetos, reconocimiento facial y clasificación de imágenes.

Relacionado:CNNObject DetectionImage Classification

Context Window#que-es-context-window

Cantidad máxima de tokens que un LLM puede procesar en una sola interacción. GPT-4 Turbo tiene 128K tokens, Claude 3 tiene 200K tokens.

Relacionado:TokenLLMPrompt

CNN (Convolutional Neural Network)#que-es-cnn

Tipo de red neuronal especializada en procesar datos con estructura de cuadrícula, como imágenes. Usa filtros convolucionales para detectar patrones.

Relacionado:Computer VisionDeep LearningImage Recognition
D

Deep Learning#que-es-deep-learning

Subcampo del machine learning que usa redes neuronales con múltiples capas. Permite aprender representaciones jerárquicas de los datos automáticamente.

Relacionado:Neural NetworkMachine LearningAI

Diffusion Model#que-es-diffusion-model

Tipo de modelo generativo que aprende a crear datos añadiendo y luego eliminando ruido gradualmente. Base de DALL-E, Midjourney y Stable Diffusion.

Relacionado:Generative AIImage GenerationDALL-E
E

Embedding#que-es-embedding

Representación numérica de datos (texto, imágenes) en un espacio vectorial. Permite que las máquinas comparen y procesen conceptos semánticamente.

Relacionado:Vector DatabaseSemantic SearchRAG

Epoch#que-es-epoch

Una pasada completa por todo el dataset de entrenamiento. Los modelos típicamente necesitan múltiples epochs para converger.

Relacionado:TrainingBatchIteration
F

Few-Shot Learning#que-es-few-shot-learning

Técnica donde el modelo aprende de muy pocos ejemplos. En LLMs, se logra incluyendo ejemplos en el prompt para guiar el comportamiento.

Relacionado:Zero-ShotOne-ShotPrompt Engineering

Fine-Tuning#que-es-fine-tuning

Proceso de ajustar un modelo pre-entrenado para una tarea específica. Permite personalizar LLMs con datos propios sin entrenar desde cero.

Relacionado:Transfer LearningPre-trainingLoRA

Foundation Model#que-es-foundation-model

Modelo de IA entrenado con grandes cantidades de datos que sirve como base para múltiples aplicaciones. GPT-4, Claude y LLaMA son foundation models.

Relacionado:LLMPre-trainingTransfer Learning
G

Generative AI#que-es-generative-ai

IA capaz de crear contenido nuevo: texto, imágenes, audio, código. Incluye LLMs, modelos de difusión y GANs.

Relacionado:LLMDiffusion ModelGAN

GPT (Generative Pre-trained Transformer)#que-es-gpt

Familia de modelos de OpenAI entrenados para generar texto. GPT-4 es uno de los LLMs más avanzados actualmente.

Relacionado:OpenAILLMTransformer

Gradient Descent#que-es-gradient-descent

Algoritmo de optimización que ajusta los parámetros del modelo en la dirección que reduce el error. Base del entrenamiento de redes neuronales.

Relacionado:BackpropagationLearning RateOptimization
H

Hallucination#que-es-hallucination

Cuando un LLM genera información falsa o inventada que suena plausible. Es uno de los principales desafíos de los modelos actuales.

Relacionado:LLMFactualityGrounding

Hyperparameter#que-es-hyperparameter

Parámetro que se configura antes del entrenamiento y no se aprende. Incluye learning rate, batch size, número de capas, etc.

Relacionado:TrainingModel ArchitectureTuning
I

Inference#que-es-inference

Proceso de usar un modelo entrenado para hacer predicciones con datos nuevos. Es la fase de 'producción' después del entrenamiento.

Relacionado:TrainingDeploymentLatency
L

LangChain#que-es-langchain

Framework popular para desarrollar aplicaciones con LLMs. Facilita la creación de cadenas de prompts, RAG, agentes y más.

Relacionado:LLMRAGAgent

LLM (Large Language Model)#que-es-llm

Modelo de lenguaje entrenado con enormes cantidades de texto. Puede generar, traducir, resumir y razonar sobre texto. Ejemplos: GPT-4, Claude, LLaMA.

Relacionado:GPTTransformerNLP

LoRA (Low-Rank Adaptation)#que-es-lora

Técnica eficiente de fine-tuning que añade pequeñas matrices entrenables al modelo. Reduce drásticamente los recursos necesarios para personalizar LLMs.

Relacionado:Fine-TuningPEFTAdaptation
M

Machine Learning#que-es-machine-learning

Subcampo de la IA donde los sistemas aprenden patrones de los datos sin ser programados explícitamente. Incluye supervised, unsupervised y reinforcement learning.

Relacionado:AIDeep LearningTraining

MCP (Model Context Protocol)#que-es-mcp

Protocolo abierto de Anthropic que permite a los LLMs conectarse con aplicaciones externas de forma estandarizada. Facilita integraciones robustas.

Relacionado:ClaudeIntegrationAPI

MLOps#que-es-mlops

Prácticas para desplegar y mantener modelos de ML en producción. Combina ML, DevOps e ingeniería de datos.

Relacionado:DeploymentCI/CDMonitoring

Multimodal#que-es-multimodal

Modelos capaces de procesar múltiples tipos de datos: texto, imágenes, audio, vídeo. GPT-4V y Claude 3 son multimodales.

Relacionado:VisionLLMFoundation Model
N

Neural Network#que-es-neural-network

Modelo computacional inspirado en el cerebro, compuesto por neuronas artificiales organizadas en capas. Base del deep learning moderno.

Relacionado:Deep LearningPerceptronLayer

NLP (Natural Language Processing)#que-es-nlp

Campo de la IA enfocado en la interacción entre computadoras y lenguaje humano. Incluye traducción, análisis de sentimiento, Q&A, etc.

Relacionado:LLMNLUText Processing
O

Overfitting#que-es-overfitting

Cuando un modelo aprende demasiado bien los datos de entrenamiento y falla con datos nuevos. El modelo 'memoriza' en lugar de 'generalizar'.

Relacionado:RegularizationValidationGeneralization
P

Parameter#que-es-parameter

Valores numéricos que el modelo aprende durante el entrenamiento. GPT-4 tiene ~1.7 trillones de parámetros.

Relacionado:WeightTrainingModel Size

Prompt#que-es-prompt

Texto de entrada que se proporciona a un LLM para obtener una respuesta. Diseñar buenos prompts es clave para resultados óptimos.

Relacionado:Prompt EngineeringContextInstruction

Prompt Engineering#que-es-prompt-engineering

Arte y ciencia de diseñar prompts efectivos para LLMs. Incluye técnicas como few-shot, chain-of-thought, y role prompting.

Relacionado:LLMFew-ShotChain-of-Thought
R

RAG (Retrieval Augmented Generation)#que-es-rag

Técnica que mejora las respuestas de LLMs buscando información relevante en una base de conocimiento antes de generar. Reduce alucinaciones y permite usar datos propios.

Relacionado:Vector DatabaseEmbeddingLLM

Reinforcement Learning#que-es-reinforcement-learning

Paradigma de ML donde un agente aprende mediante prueba y error, recibiendo recompensas por acciones correctas. Usado en RLHF para alinear LLMs.

Relacionado:RLHFAgentReward

RLHF (Reinforcement Learning from Human Feedback)#que-es-rlhf

Técnica para alinear LLMs con preferencias humanas usando feedback de evaluadores. Clave para hacer modelos más útiles y seguros.

Relacionado:Fine-TuningAlignmentSafety
S

Supervised Learning#que-es-supervised-learning

Tipo de ML donde el modelo aprende de datos etiquetados. Cada ejemplo tiene una entrada y la respuesta correcta esperada.

Relacionado:Unsupervised LearningLabelTraining
T

Temperature#que-es-temperature

Parámetro que controla la aleatoriedad de las respuestas de un LLM. Valores bajos = más determinista, valores altos = más creativo/aleatorio.

Relacionado:SamplingTop-pGeneration

Token#que-es-token

Unidad básica de texto que procesan los LLMs. Puede ser una palabra, parte de palabra o carácter. 1 token ≈ 4 caracteres en inglés.

Relacionado:TokenizationContext WindowBPE

Transformer#que-es-transformer

Arquitectura de red neuronal basada en atención que revolucionó el NLP. Base de GPT, BERT, Claude y la mayoría de LLMs modernos.

Relacionado:AttentionLLMBERT

Transfer Learning#que-es-transfer-learning

Técnica donde un modelo entrenado en una tarea se adapta para otra relacionada. Permite aprovechar conocimiento previo con menos datos.

Relacionado:Fine-TuningPre-trainingFoundation Model
V

Vector Database#que-es-vector-database

Base de datos optimizada para almacenar y buscar vectores (embeddings). Esencial para RAG y búsqueda semántica. Ejemplos: Pinecone, Weaviate, FAISS.

Relacionado:EmbeddingRAGSemantic Search
Z

Zero-Shot Learning#que-es-zero-shot-learning

Capacidad de un modelo para realizar tareas sin ejemplos específicos, solo con instrucciones. Los LLMs modernos destacan en zero-shot.

Relacionado:Few-ShotPrompt EngineeringGeneralization