Ir al contenido principal

OpenRouter: Guia Completa para Acceder a Todos los Modelos IA con Una API [2026]

9 de marzo de 2026
12 min

OpenRouter es un router de APIs que da acceso a GPT-5, Claude, Gemini, Llama y 200+ modelos con una sola API key. Precios pay-per-use, tutorial y guia completa.

Javier Santos

Especialista en IA & Machine Learning

📧¿Te gusta este contenido?

Únete a 547+ profesionales que reciben tips de IA cada semana. Sin spam, cancela cuando quieras.

OpenRouter: Guia Completa para Acceder a Todos los Modelos IA con Una API [2026]

OpenRouter es un gateway de APIs unificado que permite acceder a mas de 200 modelos de inteligencia artificial (GPT-5, Claude Opus 4, Gemini 2.5, Llama 4, DeepSeek V4 y muchos mas) con una sola API key y un formato compatible con el SDK de OpenAI. Fundada por Alex Atallah (cofundador de OpenSea), OpenRouter elimina la necesidad de gestionar multiples cuentas de proveedor, multiples API keys y multiples formatos de peticion. Pagas solo por lo que consumes con precios pass-through (coste del proveedor mas un pequeno markup del 1-5%) y cambiar de modelo es tan facil como cambiar un string en tu codigo.

¿Quieres dominar la IA? En La Escuela de IA compartimos tutoriales y recursos. Unete gratis. Tambien en YouTube @JavadexAI.

TL;DR - Resumen rapido

  • Que es OpenRouter: Un router/gateway de APIs de IA que unifica el acceso a mas de 200 modelos de 15+ proveedores con una sola API key y formato OpenAI-compatible.
  • Modelo de precios: Pay-per-use sin suscripcion. Pagas el coste del proveedor mas un markup del 1-5%. Sin cuotas mensuales ni compromisos.
  • Mejor para: Desarrolladores que quieren probar multiples modelos sin crear 8 cuentas diferentes, startups que necesitan fallback automatico entre proveedores, y equipos que quieren un unico dashboard de costes.
  • Modelos gratuitos: Si. OpenRouter ofrece acceso gratuito a modelos como Llama 3.3 8B, Gemma 3 9B, Phi-4 y Mistral 7B con limites de rate (20 peticiones/minuto).
  • Compatible con OpenAI SDK: Si, 100%. Solo cambias la base_url y la api_key. Tu codigo existente funciona sin modificaciones.
  • vs API directa: OpenRouter anade un markup del 1-5% sobre el precio directo, pero a cambio te da fallback automatico, un solo dashboard de facturacion y cambio de modelo instantaneo.
  • Quien lo usa: Mas de 85.000 desarrolladores activos. Integraciones nativas con Cursor, Continue, n8n, LangChain, LlamaIndex y 40+ herramientas.


Que es OpenRouter y Por Que Existe

OpenRouter (openrouter.ai) es un servicio que actua como intermediario entre tu aplicacion y los principales proveedores de modelos de IA, ofreciendo una API unificada para todos ellos. En lugar de registrarte por separado en OpenAI, Anthropic, Google, Meta, Mistral, Cohere y otros 10 proveedores, creas una cuenta en OpenRouter, generas una API key y accedes a todos desde un unico endpoint.

El problema que resuelve OpenRouter es real: en marzo de 2026 existen mas de 15 proveedores comerciales de modelos de lenguaje, cada uno con su propia API, formato de autenticacion, sistema de facturacion y limites de uso. Un desarrollador que quiera evaluar GPT-5 contra Claude Opus 4 contra Gemini 2.5 Pro necesita crear 3 cuentas, configurar 3 API keys, aprender 3 formatos ligeramente diferentes y gestionar 3 facturas. Con OpenRouter, todo eso se reduce a una sola integracion.

OpenRouter fue fundada en 2023 por Alex Atallah, conocido por ser cofundador de OpenSea (el marketplace de NFTs). La vision detras del proyecto es convertirse en el "Stripe de las APIs de IA": una capa de abstraccion que simplifique el acceso a la infraestructura de modelos, igual que Stripe simplifico los pagos online. En marzo de 2026, OpenRouter procesa mas de 2.000 millones de tokens diarios y tiene mas de 85.000 desarrolladores activos.


Como Funciona OpenRouter: Arquitectura y Flujo

OpenRouter funciona como un proxy inteligente que recibe tus peticiones en formato OpenAI, las traduce al formato del proveedor de destino, ejecuta la inferencia y te devuelve la respuesta en formato estandar. El flujo completo es:

  1. Tu aplicacion envia una peticion HTTP POST a https://openrouter.ai/api/v1/chat/completions con el modelo deseado (por ejemplo, openai/gpt-5).
  2. OpenRouter autentica tu API key, verifica tu saldo, y traduce la peticion al formato nativo del proveedor.
  3. El proveedor (OpenAI, Anthropic, Google, etc.) ejecuta la inferencia y devuelve la respuesta a OpenRouter.
  4. OpenRouter traduce la respuesta al formato OpenAI estandar y la devuelve a tu aplicacion.
  5. Facturacion: OpenRouter cobra el coste del proveedor mas su markup y lo descuenta de tu saldo prepagado.

Este diseno tiene varias implicaciones importantes:

  • Latencia: OpenRouter anade entre 50-150ms de latencia adicional por peticion (el tiempo de routing). Para la mayoria de aplicaciones esto es imperceptible, pero si necesitas latencia ultra-baja (menos de 200ms), la API directa puede ser mejor opcion.
  • Disponibilidad: Si un proveedor cae, OpenRouter puede redirigir automaticamente tu peticion a un modelo alternativo equivalente (fallback routing). Esto es una de sus funcionalidades mas valiosas.
  • Privacidad: Tus datos pasan por los servidores de OpenRouter antes de llegar al proveedor final. OpenRouter declara que no almacena el contenido de las peticiones, pero es un intermediario adicional en la cadena.


Modelos Disponibles en OpenRouter: Catalogo Completo

OpenRouter ofrece acceso a mas de 200 modelos de 15+ proveedores, incluyendo los modelos mas potentes y los mas economicos del mercado. La siguiente tabla muestra los 15 modelos mas relevantes disponibles en marzo de 2026 con sus precios actualizados.

ModeloProveedorPrecio Input ($/M tokens)Precio Output ($/M tokens)ContextoMejor para
GPT-5OpenAI$3.00$15.00256KRazonamiento avanzado, agentes
GPT-5 MiniOpenAI$0.40$1.60128KChat general, coste optimizado
Claude Opus 4Anthropic$15.00$75.00200KAnalisis profundo, codigo
Claude Sonnet 4.6Anthropic$3.00$15.00200KEquilibrio calidad/precio
Gemini 2.5 ProGoogle$1.25$10.002MContexto largo, multimodal
Gemini 2.5 FlashGoogle$0.15$0.601MVelocidad, bajo coste
Llama 4 MaverickMeta$0.20$0.601MOpen source, MoE eficiente
Llama 4 ScoutMeta$0.10$0.30512KContexto largo, bajo coste
DeepSeek V4DeepSeek$0.14$0.28128KRazonamiento, coste minimo
DeepSeek R2DeepSeek$0.55$2.19128KRazonamiento chain-of-thought
Mistral Large 3Mistral$2.00$6.00128KMultilingue, Europa
Qwen 3 235B (MoE)Alibaba$0.30$1.20128KMultilingue, coste eficiente
Command R+Cohere$2.50$10.00128KRAG, busqueda, citaciones
Grok 4xAI$3.00$15.00256KRazonamiento, tiempo real
Phi-4 14BMicrosoft$0.07$0.1416KSTEM, modelos pequenos
Nota sobre precios: Los precios mostrados son los de OpenRouter, que incluyen el markup sobre el precio directo del proveedor. Los precios se actualizan frecuentemente; consulta openrouter.ai/models para precios en tiempo real.

Modelos gratuitos en OpenRouter

OpenRouter ofrece acceso gratuito a una seleccion de modelos open source con limites de uso. En marzo de 2026, los modelos gratuitos disponibles incluyen:

  • Llama 3.3 8B Instruct - 20 peticiones/minuto, 200 peticiones/dia
  • Gemma 3 9B - 20 peticiones/minuto, 200 peticiones/dia
  • Phi-4 Mini - 20 peticiones/minuto, 200 peticiones/dia
  • Mistral 7B Instruct - 20 peticiones/minuto, 200 peticiones/dia
  • Qwen 3 7B - 20 peticiones/minuto, 200 peticiones/dia

Estos modelos gratuitos son ideales para prototipado, desarrollo y proyectos personales. Para produccion, OpenRouter recomienda usar los modelos de pago que tienen mayor rate limit y menor latencia.


Tutorial: Primeros Pasos con OpenRouter

Empezar a usar OpenRouter lleva menos de 5 minutos: creas una cuenta, generas una API key, aniades credito y envias tu primera peticion. Estos son los pasos exactos.

Paso 1: Crear cuenta y obtener API key

  1. Visita openrouter.ai y crea una cuenta (puedes usar Google, GitHub o email).
  2. Ve a Settings > API Keys y haz clic en Create Key.
  3. Copia tu API key (empieza por sk-or-v1-...). Guardala en un lugar seguro; no la volveras a ver.
  4. Anade credito en Settings > Billing. El minimo es $5. OpenRouter acepta tarjeta de credito y criptomonedas.

Paso 2: Primera peticion con Python

OpenRouter es 100% compatible con el SDK de OpenAI. Si ya usas openai en Python, solo necesitas cambiar dos lineas:

python
1from openai import OpenAI
2 
3# Configura el cliente apuntando a OpenRouter
4client = OpenAI(
5 base_url="https://openrouter.ai/api/v1",
6 api_key="sk-or-v1-tu-api-key-aqui"
7)
8 
9# Envia una peticion a Claude Sonnet 4.6
10response = client.chat.completions.create(
11 model="anthropic/claude-sonnet-4.6",
12 messages=[
13 {"role": "system", "content": "Eres un experto en desarrollo de software."},
14 {"role": "user", "content": "Explica que es una API REST en 3 frases."}
15 ],
16 max_tokens=500,
17 temperature=0.7
18)
19 
20print(response.choices[0].message.content)

Asi de simple. Si ahora quieres probar GPT-5, solo cambia model="openai/gpt-5". Si quieres Gemini, model="google/gemini-2.5-pro". El resto del codigo no cambia.

Paso 3: Peticion con curl

Si prefieres hacer la peticion directamente desde la terminal:

bash
1curl https://openrouter.ai/api/v1/chat/completions \
2 -H "Content-Type: application/json" \
3 -H "Authorization: Bearer sk-or-v1-tu-api-key-aqui" \
4 -d '{
5 "model": "anthropic/claude-sonnet-4.6",
6 "messages": [
7 {"role": "user", "content": "Que es OpenRouter en una frase?"}
8 ]
9 }'

La respuesta llega en formato JSON estandar de OpenAI, con choices[0].message.content conteniendo el texto generado.

Paso 4: Verificar consumo

Despues de cada peticion, OpenRouter devuelve headers HTTP con informacion de costes:

  • x-ratelimit-remaining: Peticiones restantes en tu ventana actual.
  • La respuesta JSON incluye un campo usage con prompt_tokens, completion_tokens y total_tokens.

Tambien puedes consultar tu consumo en tiempo real en el dashboard de OpenRouter: Settings > Usage.


Funciones Avanzadas de OpenRouter

OpenRouter no es solo un proxy: ofrece funcionalidades avanzadas como fallback automatico, routing inteligente, streaming, function calling y seguimiento de costes por proyecto. Estas son las mas relevantes para desarrollo en produccion.

Fallback automatico entre modelos

Si un proveedor esta caido o devuelve error, OpenRouter puede redirigir automaticamente a un modelo alternativo. Lo configuras en la peticion:

python
1response = client.chat.completions.create(
2 model="anthropic/claude-sonnet-4.6",
3 messages=[{"role": "user", "content": "Hola, como estas?"}],
4 extra_body={
5 "route": "fallback",
6 "models": [
7 "anthropic/claude-sonnet-4.6",
8 "openai/gpt-5-mini",
9 "google/gemini-2.5-flash"
10 ]
11 }
12)

Si Claude no responde en 10 segundos, OpenRouter prueba automaticamente con GPT-5 Mini y despues con Gemini Flash. Esto es extremadamente util en produccion donde la disponibilidad es critica.

Routing por precio o velocidad

Puedes dejar que OpenRouter elija automaticamente el mejor modelo segun tus criterios:

python
1response = client.chat.completions.create(
2 model="openrouter/auto", # OpenRouter elige el modelo optimo
3 messages=[{"role": "user", "content": "Resume este texto..."}],
4 extra_body={
5 "route": "lowest-cost" # Opciones: "lowest-cost", "lowest-latency"
6 }
7)

Con lowest-cost, OpenRouter selecciona el modelo mas barato capaz de resolver tu peticion. Con lowest-latency, elige el mas rapido.

Streaming

OpenRouter soporta streaming de respuestas, igual que la API de OpenAI:

python
1stream = client.chat.completions.create(
2 model="openai/gpt-5",
3 messages=[{"role": "user", "content": "Escribe un poema sobre APIs."}],
4 stream=True
5)
6 
7for chunk in stream:
8 if chunk.choices[0].delta.content:
9 print(chunk.choices[0].delta.content, end="")

Function calling y herramientas

OpenRouter soporta function calling para los modelos que lo permiten (GPT-5, Claude, Gemini, Mistral Large). La sintaxis es identica a la de OpenAI:

python
1response = client.chat.completions.create(
2 model="openai/gpt-5",
3 messages=[{"role": "user", "content": "Que tiempo hace en Madrid?"}],
4 tools=[{
5 "type": "function",
6 "function": {
7 "name": "get_weather",
8 "description": "Obtiene el tiempo actual de una ciudad",
9 "parameters": {
10 "type": "object",
11 "properties": {
12 "city": {"type": "string", "description": "Nombre de la ciudad"}
13 },
14 "required": ["city"]
15 }
16 }
17 }]
18)

Seguimiento de costes por proyecto

OpenRouter permite etiquetar peticiones con un identificador de proyecto para separar costes:

python
1response = client.chat.completions.create(
2 model="anthropic/claude-sonnet-4.6",
3 messages=[{"role": "user", "content": "Analiza este dataset..."}],
4 extra_headers={
5 "X-Title": "Mi Proyecto de Analisis",
6 "HTTP-Referer": "https://miapp.com"
7 }
8)

En el dashboard de OpenRouter veras el consumo desglosado por proyecto, lo que facilita la atribucion de costes en equipos.


Comparativa de Precios: OpenRouter vs API Directa

El markup de OpenRouter sobre los precios directos de los proveedores oscila entre el 0% y el 5%, dependiendo del modelo y proveedor. En muchos casos el markup es inferior al 2%, lo que lo convierte en una opcion economicamente viable incluso para produccion.

ModeloPrecio directo (Input/Output $/M)Precio OpenRouter (Input/Output $/M)Markup
GPT-5$2.50 / $10.00$3.00 / $15.00~20% output, ~20% input
Claude Sonnet 4.6$3.00 / $15.00$3.00 / $15.000%
Gemini 2.5 Pro$1.25 / $10.00$1.25 / $10.000%
Llama 4 Maverick$0.20 / $0.60$0.20 / $0.600%
DeepSeek V4$0.14 / $0.28$0.14 / $0.280%
Observacion clave: Para modelos de Google, Meta, DeepSeek y Anthropic, OpenRouter frecuentemente ofrece el mismo precio que la API directa (0% markup). Esto se debe a que OpenRouter tiene acuerdos de volumen con estos proveedores. El markup mayor se observa en modelos de OpenAI, donde OpenRouter anade entre un 15-20% sobre el precio directo. Si tu uso se centra en GPT-5 y necesitas miles de millones de tokens mensuales, la API directa de OpenAI sera mas economica. Para el resto de modelos, la diferencia de coste es minima o inexistente.


OpenRouter vs APIs Directas: Cuando Usar Cada Uno

Usa OpenRouter cuando necesites acceder a multiples modelos, prototipado rapido o fallback entre proveedores. Usa la API directa cuando dependas de un solo modelo con alto volumen y necesites la menor latencia posible.

Esta es la decision desglosada por escenario:

Elige OpenRouter cuando:

  • Necesitas evaluar y comparar multiples modelos (testing A/B entre GPT-5, Claude y Gemini).
  • Tu aplicacion requiere fallback automatico: si Claude cae, la peticion se redirige a GPT-5 sin intervencion manual.
  • Quieres un unico dashboard de facturacion para todos los proveedores.
  • Estas en fase de prototipado y no quieres crear 5 cuentas diferentes.
  • Tu volumen es bajo-medio (menos de 500 millones de tokens/mes).
  • Usas herramientas como Cursor, Continue o n8n que ya integran OpenRouter nativamente.

Elige API directa cuando:

  • Usas exclusivamente un proveedor (solo GPT-5 o solo Claude) con alto volumen.
  • Necesitas latencia minima (50-150ms menos por peticion).
  • Tu volumen supera los 1.000 millones de tokens/mes y el markup de OpenRouter se convierte en un coste significativo.
  • Necesitas funcionalidades especificas del proveedor que OpenRouter no expone (como fine-tuning en OpenAI o Batch API).
  • Tienes requisitos de compliance que impiden pasar datos por intermediarios.

Para la mayoria de desarrolladores y startups, OpenRouter es la opcion mas practica. Solo cuando tu volumen es muy alto y tu stack esta consolidado en un unico proveedor tiene sentido la API directa.


Integraciones: Herramientas que Soportan OpenRouter

OpenRouter se integra nativamente con mas de 40 herramientas y frameworks de desarrollo de IA, incluyendo las mas populares del ecosistema. Estas son las principales integraciones:

HerramientaTipoComo integrar
CursorIDE con IASettings > Models > OpenRouter. Pega tu API key
ContinueAsistente de codigoconfig.json: proveedor "openrouter" con API key
n8nAutomatizacionNodo HTTP Request o nodo OpenAI con base_url personalizada
LangChainFramework LLMChatOpenAI(base_url="https://openrouter.ai/api/v1")
LlamaIndexFramework RAGOpenAI(api_base="https://openrouter.ai/api/v1")
LibreChatChat UIVariable de entorno OPENROUTER_API_KEY
TypingMindChat UIAgregar proveedor OpenRouter en settings
Open WebUIChat UIConexiones > OpenRouter como proveedor
FlowiseLow-code LLMNodo ChatOpenAI con endpoint personalizado
CrewAIAgentes IAllm=ChatOpenAI(base_url="...") en la definicion del agente

La compatibilidad con el formato OpenAI significa que cualquier herramienta que soporte "OpenAI-compatible API" funciona con OpenRouter cambiando solo la URL base. No necesitas un SDK especifico ni un plugin dedicado.


Preguntas Frecuentes sobre OpenRouter

Que es OpenRouter exactamente?

OpenRouter es un gateway de APIs que unifica el acceso a mas de 200 modelos de inteligencia artificial de 15+ proveedores (OpenAI, Anthropic, Google, Meta, Mistral, DeepSeek, Cohere, xAI y otros) con una sola API key. Funciona como un router inteligente: recibe tu peticion, la envia al proveedor correcto y te devuelve la respuesta en formato estandar OpenAI. Fue fundado por Alex Atallah (cofundador de OpenSea) y en marzo de 2026 procesa mas de 2.000 millones de tokens diarios.

OpenRouter es gratis?

Parcialmente. OpenRouter ofrece acceso gratuito a una seleccion de modelos open source (Llama 3.3 8B, Gemma 3 9B, Phi-4 Mini, Mistral 7B, Qwen 3 7B) con limites de 20 peticiones por minuto y 200 por dia. Para acceder a modelos comerciales como GPT-5, Claude o Gemini, necesitas anadir credito a tu cuenta. No hay suscripcion mensual: pagas solo por los tokens que consumes.

Cuanto markup cobra OpenRouter sobre el precio directo?

Entre el 0% y el 20%, dependiendo del modelo. Para modelos de Anthropic, Google, Meta y DeepSeek, OpenRouter frecuentemente ofrece el mismo precio que la API directa (0% markup) gracias a acuerdos de volumen. Para modelos de OpenAI, el markup ronda el 15-20%. En promedio, para un uso diversificado entre multiples modelos, el sobrecoste efectivo es inferior al 5%.

OpenRouter es compatible con el SDK de OpenAI?

Si, 100%. OpenRouter implementa el formato completo de la API de OpenAI (/v1/chat/completions, /v1/completions, /v1/embeddings). Si tienes codigo existente que usa el SDK de OpenAI en Python, JavaScript, Go o cualquier otro lenguaje, solo necesitas cambiar la base_url a https://openrouter.ai/api/v1 y la api_key a tu clave de OpenRouter. El resto del codigo funciona sin modificaciones, incluyendo streaming, function calling y respuestas estructuradas.

Que modelos gratuitos ofrece OpenRouter?

En marzo de 2026, OpenRouter ofrece acceso gratuito a Llama 3.3 8B Instruct, Gemma 3 9B, Phi-4 Mini, Mistral 7B Instruct y Qwen 3 7B. Estos modelos tienen limites de 20 peticiones por minuto y 200 peticiones por dia. La calidad es buena para desarrollo y prototipado. Para produccion con alto volumen, necesitas los modelos de pago. Los modelos gratuitos rotan periodicamente y OpenRouter anade nuevos con frecuencia.

OpenRouter es seguro para produccion?

Si, con matices. OpenRouter tiene un SLA del 99.9% de disponibilidad, encriptacion TLS en transito y declara que no almacena el contenido de las peticiones. Sin embargo, debes considerar que tus datos pasan por un intermediario adicional antes de llegar al proveedor final. Para aplicaciones con datos sensibles (salud, finanzas, legal), verifica que el flujo de datos cumple con tu politica de compliance. Para la mayoria de aplicaciones comerciales, el nivel de seguridad es adecuado. Mas de 85.000 desarrolladores lo usan activamente en produccion.

Es mejor OpenRouter que usar la API directa de OpenAI?

Depende de tu caso de uso. OpenRouter es mejor cuando necesitas acceder a multiples modelos, quieres fallback automatico entre proveedores, o estas en fase de evaluacion comparando modelos. La API directa de OpenAI es mejor cuando usas exclusivamente modelos de OpenAI con alto volumen (mas de 1.000 millones de tokens/mes), necesitas latencia minima (50-150ms menos), o requieres funcionalidades exclusivas como fine-tuning o Batch API. Para un desarrollador medio que usa 2-3 modelos diferentes, OpenRouter ofrece mas valor que cualquier API directa individual.


Posts relacionados

Si quieres profundizar en APIs de IA, desarrollo con LLMs y herramientas del ecosistema, estos articulos complementan esta guia:


En resumen

  • OpenRouter unifica el acceso a mas de 200 modelos de IA (GPT-5, Claude Opus 4, Gemini 2.5, Llama 4, DeepSeek V4 y mas) con una sola API key y formato compatible con OpenAI.
  • El modelo de precios es pay-per-use sin suscripcion mensual. El markup sobre el precio directo del proveedor oscila entre el 0% y el 20%, con un promedio inferior al 5% para uso diversificado.
  • La compatibilidad con el SDK de OpenAI es total: cambias base_url y api_key, y tu codigo existente funciona sin modificaciones, incluyendo streaming, function calling y herramientas.
  • Ofrece modelos gratuitos (Llama 3.3 8B, Gemma 3, Phi-4, Mistral 7B, Qwen 3 7B) con limites de 20 peticiones/minuto para prototipado y desarrollo.
  • Las funciones avanzadas para produccion incluyen fallback automatico entre proveedores, routing por precio/velocidad, seguimiento de costes por proyecto y un SLA del 99.9%.
  • Se integra nativamente con 40+ herramientas del ecosistema de IA: Cursor, Continue, n8n, LangChain, LlamaIndex, CrewAI, Flowise y cualquier herramienta compatible con la API de OpenAI.
  • Usa OpenRouter cuando necesites multiples modelos, fallback o prototipado rapido. Usa la API directa solo cuando dependas de un unico proveedor con volumen superior a 1.000 millones de tokens/mes o necesites latencia minima absoluta.
📬

¿Te ha gustado? Hay más cada semana

Únete a "IA Sin Humo" — la newsletter donde comparto lo que realmente funciona en inteligencia artificial. Sin teoría innecesaria, sin postureo.

📚

1 Tutorial

Paso a paso, práctico

🛠️

3 Herramientas

Probadas y útiles

💡

0 Bullshit

Solo lo que importa

+547 suscriptores • Cada martes • Cancela cuando quieras