OpenCode: La Herramienta Open Source de Vibe Coding con MCP [Tutorial + Comparativa 2026]
Febrero 2026 y hay una herramienta nueva que está revolucionando el vibe coding desde la terminal: OpenCode. En dos semanas de enero ganó 18.000 estrellas en GitHub. Hoy supera las 90.000. Es open source, soporta 75+ modelos (incluido GPT-5.3 Codex Spark), tiene soporte nativo para MCP, y te permite programar desde la terminal sin atarte a ningún proveedor.
¿Merece el hype? ¿Es mejor que Cursor o Claude Code? Lo he instalado, configurado con MCP servers, conectado a modelos locales con Ollama y probado en proyectos reales. Aquí va el análisis completo en español.
¿Quieres dominar el vibe coding con las mejores herramientas IA? En La Escuela de IA compartimos tutoriales y setups reales. Únete gratis. También en YouTube @JavadexAI. Conecta en LinkedIn de Javier Santos.
TL;DR - Resumen Rápido
- OpenCode es un agente IA para terminal, open source, con 90.000+ estrellas en GitHub
- Soporta 75+ proveedores: Claude, GPT-5.3, Gemini, Ollama (modelos locales), GitHub Copilot
- MCP nativo: conecta GitHub, Sentry, bases de datos y 300+ herramientas externas sin salir de la terminal
- Gratis si usas tu propia API key o modelos locales con Ollama
- vs Cursor: OpenCode es terminal-first y multi-modelo; Cursor tiene mejor UX visual
- vs Claude Code: OpenCode soporta más modelos y es 100% open source
- Para la mayoría: empieza con OpenCode + Claude Sonnet 4.6 o GPT-5.3 Codex Spark
- Para privacidad total: OpenCode + Ollama + Qwen3-Coder 8B local
Tabla Comparativa General: OpenCode vs Cursor vs Claude Code
| Característica | OpenCode | Cursor | Claude Code |
|---|---|---|---|
| Precio | Gratis (trae tu API) | $20/mes | Pay-per-use |
| Open Source | ✅ Sí (MIT) | ❌ No | ❌ No |
| Modelos soportados | 75+ proveedores | ~10 modelos | Solo Anthropic |
| Modelos locales | ✅ Ollama nativo | ⚠️ Experimental | ❌ No |
| Soporte MCP | ✅ Nativo completo | ✅ Nativo | ✅ Nativo |
| Interfaz | Terminal TUI | Editor visual | Terminal CLI |
| Integración IDE | ✅ Extensión | ✅ Fork VS Code | ⚠️ Solo terminal |
| GitHub Copilot | ✅ Reutiliza suscripción | ❌ Separado | ❌ No |
| Privacidad | ✅ No almacena código | ⚠️ Cloud sync | ⚠️ Cloud sync |
| SWE-Bench score | ~69% (Claude) | 61,2% | 72,5% (Opus 4.6) |
| Velocidad | Depende del modelo | Normal | Normal |
| Plan gratuito | ✅ Con API propia | ❌ Limitado | ✅ Limitado |
Qué es OpenCode
OpenCode es un agente IA de codificación para terminal, construido en Go por Anomaly Innovations. Es la alternativa open source más popular a Claude Code y Cursor CLI, con más de 90.000 estrellas en GitHub (enero 2026) y más de 650.000 desarrolladores activos al mes.
A diferencia de Cursor (que es un fork de VS Code) o Claude Code (que solo usa modelos Anthropic), OpenCode es agnóstico al proveedor: conectas la API key que quieras, cambias de modelo en cualquier momento, y puedes correr todo localmente con Ollama sin enviar ni una línea de código a servidores externos.
La arquitectura es sencilla pero potente:
1Tu terminal → OpenCode TUI → LLM provider (Claude / GPT / Gemini / Local)2 ↓3 MCP Servers (GitHub, DB, APIs externas)
"OpenCode ha democratizado el acceso a agentes IA de terminal de calidad. Lo que antes requería pagar por Claude Code o Cursor ahora está disponible para cualquiera con una API key." — InfoQ, febrero 2026
Por Qué OpenCode está Arrasando en 2026
En enero de 2026, OpenCode ganó 18.000 estrellas en dos semanas. ¿Por qué ese despegue tan brusco? Tres razones:
- La guerra de precios de APIs: GPT-5.3 Codex Spark, Claude Sonnet 4.6 y Gemini 3 Pro bajaron precios un 40-60% entre diciembre 2025 y enero 2026. OpenCode, al soportar todos, se convirtió en el hub perfecto
- El bloqueo de Anthropic a Claude Code en ciertos países: usuarios de América Latina y Asia que no podían acceder encontraron en OpenCode la alternativa directa
- Soporte Ollama maduro: por primera vez, modelos locales como Qwen3-Coder funcionan con flujos agénticos completos (no solo autocompletado)
| Hito | Fecha |
|---|---|
| Primera versión pública | Octubre 2025 |
| Soporte MCP completo | Noviembre 2025 |
| Integración Ollama estable | Diciembre 2025 |
| 50.000 GitHub stars | Enero 2026 |
| 90.000 GitHub stars | Febrero 2026 |
Instalación de OpenCode (Todos los Métodos)
Método Recomendado: Script de Instalación
1curl -fsSL https://opencode.ai/install | bash
Con Package Managers
1# npm2npm install -g opencode-ai3 4# Homebrew (macOS/Linux)5brew install sst/tap/opencode6 7# pnpm8pnpm add -g opencode-ai9 10# Bun11bun add -g opencode-ai12 13# Windows (Chocolatey)14choco install opencode15 16# Windows (Scoop)17scoop install opencode18 19# Arch Linux20pacman -S opencode-bin
Verificar instalación
1opencode --version2# opencode 0.1.92 (o superior)
Primera ejecución
1# En cualquier directorio de tu proyecto2opencode
Al arrancar por primera vez, OpenCode te pedirá configurar un proveedor. Puedes usar:
- Tu API key de Anthropic (Claude)
- Tu API key de OpenAI (GPT-5.3)
- Tu cuenta de GitHub Copilot (reutiliza tu suscripción existente)
- Ollama local (sin API key, 100% privado)
Configuración de Proveedores y Modelos
OpenCode usa un fichero de configuración en ~/.config/opencode/config.json. También puedes crear un opencode.json en tu proyecto para configuración por-proyecto.
Configuración básica
1{2 "$schema": "https://opencode.ai/config.json",3 "provider": "anthropic",4 "model": "claude-sonnet-4-6",5 "autoshare": false,6 "autoapprove": false7}
Configurar GPT-5.3 Codex Spark (OpenAI)
1{2 "provider": "openai",3 "model": "codex-mini-latest",4 "env": {5 "OPENAI_API_KEY": "sk-..."6 }7}
Configurar Gemini 3 Pro (Google)
1{2 "provider": "google",3 "model": "gemini-3-pro",4 "env": {5 "GOOGLE_API_KEY": "..."6 }7}
Configurar GitHub Copilot (reutiliza tu suscripción)
1# Autenticarse con GitHub2opencode auth github
Esto te permite usar GitHub Copilot como proveedor sin pagar una API key adicional. Si ya pagas los $19/mes de Copilot, OpenCode lo reutiliza gratis.
Configurar Ollama (modelos locales, 100% privado)
1# Primero instala Ollama2curl -fsSL https://ollama.ai/install.sh | sh3 4# Descarga un modelo de código5ollama pull qwen3:8b-coder6# o para más potencia:7ollama pull qwen2.5-coder:32b8 9# Configura OpenCode para usar Ollama
1{2 "provider": "ollama",3 "model": "qwen3:8b-coder"4}
Modelos locales recomendados para cada perfil:
| Perfil | Modelo | VRAM | Velocidad |
|---|---|---|---|
| Laptop básico | Qwen3-Coder 4B | 4 GB | Rápido |
| Laptop pro | Qwen3-Coder 8B | 8 GB | Mejor balance |
| Mac Studio / RTX 3090 | Qwen2.5-Coder 32B | 24 GB | Potente |
| Workstation | DeepSeek-Coder 33B | 32 GB | Máxima calidad |
Tutorial: Configurar MCP Servers en OpenCode
Este es el superpoder de OpenCode: el soporte nativo de MCP (Model Context Protocol) te permite conectar herramientas externas directamente en tus conversaciones con la IA.
¿Qué es MCP en OpenCode?
MCP (Model Context Protocol) es el estándar abierto creado por Anthropic que permite a cualquier herramienta de IA conectarse a servicios externos (GitHub, bases de datos, Slack, APIs...) de forma estandarizada. OpenCode lo implementa de forma nativa y soporta tanto servidores locales como remotos.
Añadir un servidor MCP (método interactivo)
1opencode mcp add
Esto lanza un asistente que te guía por:
- Nombre del servidor
- Tipo: local (proceso en tu máquina) o remoto (HTTP/HTTPS)
- Comando o URL
- Variables de entorno necesarias
Configurar MCP en opencode.json
1{2 "mcp": {3 "github": {4 "type": "local",5 "command": ["npx", "-y", "@modelcontextprotocol/server-github"],6 "env": {7 "GITHUB_PERSONAL_ACCESS_TOKEN": "ghp_..."8 }9 },10 "context7": {11 "type": "local",12 "command": ["npx", "-y", "@upstash/context7-mcp"]13 },14 "sentry": {15 "type": "remote",16 "url": "https://mcp.sentry.io/mcp",17 "headers": {18 "Authorization": "Bearer TU_SENTRY_TOKEN"19 }20 },21 "filesystem": {22 "type": "local",23 "command": ["npx", "-y", "@modelcontextprotocol/server-filesystem", "/ruta/a/tu/proyecto"]24 }25 }26}
MCP Servers más útiles para desarrollo
| MCP Server | Para qué sirve | Instalación |
|---|---|---|
| GitHub MCP | Issues, PRs, repos sin salir del terminal | @modelcontextprotocol/server-github |
| Context7 | Documentación actualizada de librerías en tiempo real | @upstash/context7-mcp |
| Sentry MCP | Errores de producción directo en tu contexto | Servidor remoto oficial |
| Postgres MCP | Consultas y schema de tu base de datos | @modelcontextprotocol/server-postgres |
| Filesystem MCP | Acceso controlado a archivos del sistema | @modelcontextprotocol/server-filesystem |
| Brave Search | Búsquedas web dentro del agente | @modelcontextprotocol/server-brave-search |
Ejemplo real: OpenCode + GitHub MCP
1# Con el MCP de GitHub configurado, puedes hacer cosas como:2# "revisa el último PR abierto y sugiere mejoras"3# "crea un issue con este bug que acabas de detectar"4# "busca si existe algún issue relacionado con este error"
El modelo IA tiene acceso a tu repositorio y puede leer issues, PRs y commits directamente desde la conversación. Sin copiar y pegar URLs.
Activar/desactivar MCP servers
1{2 "mcp": {3 "github": { "enabled": true },4 "sentry": { "enabled": false }5 }6}
Comandos Esenciales de OpenCode
Una vez dentro de OpenCode (ejecuta opencode en tu proyecto), estos son los comandos más útiles:
| Atajo / Comando | Acción |
|---|---|
@archivo.ts | Incluye un archivo en el contexto |
/review | Ejecuta el comando personalizado "review" |
/clear | Limpia el contexto de la conversación |
Ctrl+C | Cancela la acción en curso |
Ctrl+L | Limpia la pantalla |
↑↓ | Navegar por el historial de mensajes |
Comandos personalizados (Custom Commands)
OpenCode permite guardar prompts frecuentes como archivos Markdown en .opencode/commands/:
1mkdir -p .opencode/commands
Crea .opencode/commands/review.md:
1Revisa el código de este PR con especial atención a:21. Posibles vulnerabilidades de seguridad32. Casos edge no manejados43. Oportunidades de optimización de rendimiento54. Legibilidad y consistencia con el resto del codebase6 7Responde en español con formato de lista.
Ahora puedes ejecutar /review desde cualquier conversación de OpenCode.
Integración con GitHub Actions
OpenCode puede dispararse automáticamente en comentarios de PRs:
1# .github/workflows/opencode.yml2name: OpenCode Review3on:4 issue_comment:5 types: [created]6jobs:7 review:8 if: contains(github.event.comment.body, '/opencode')9 runs-on: ubuntu-latest10 steps:11 - uses: opencode-ai/opencode-action@v112 with:13 provider: anthropic14 model: claude-sonnet-4-615 env:16 ANTHROPIC_API_KEY: ${{ secrets.ANTHROPIC_API_KEY }}
Escribe /opencode revisa este PR en un comentario y el agente crea una rama, hace los cambios y abre un PR automáticamente.
OpenCode vs Cursor vs Claude Code: Análisis Detallado
OpenCode: El Generalista Open Source
OpenCode es la elección perfecta si valoras la flexibilidad de modelos y la privacidad. Su arquitectura agnóstica te permite cambiar de Claude a GPT-5.3 a Gemini con un cambio de configuración.
Fortalezas de OpenCode
- 75+ proveedores sin lock-in: hoy usas Claude, mañana GPT-5.3, pasado un modelo local
- 100% open source (MIT): puedes auditarlo, modificarlo, auto-hospedarlo
- Privacidad: no almacena tu código ni contexto en sus servidores
- MCP completo: soporte local y remoto con OAuth automático
- GitHub Copilot reutilizable: si ya pagas Copilot, aprovechas la inversión
- Gratuito con API propia o modelos locales Ollama
Debilidades de OpenCode
- Curva de aprendizaje: configurar proveedores y MCP requiere más setup inicial
- Sin editor visual: puramente terminal; si prefieres GUI, Cursor es mejor
- Comunidad más pequeña que Cursor o Claude Code (aunque crece rápido)
Cuándo elegir OpenCode
- ✅ Quieres libertad total de modelos sin pagar suscripciones fijas
- ✅ Trabajas en terminal y prefieres no abrir un editor gráfico
- ✅ Necesitas privacidad total (código sensible, entornos corporativos)
- ✅ Quieres integrar MCP servers avanzados sin límites
- ✅ Ya tienes GitHub Copilot y quieres un cliente CLI
- ❌ No ideal si prefieres UI visual y autocompletado en tiempo real
- ❌ No recomendado si no tienes experiencia con terminal
Cursor: El Estándar de la Industria
Cursor sigue siendo la herramienta más usada por desarrolladores profesionales en 2026, con 4+ millones de usuarios activos y una valoración de $10.000 millones.
Fortalezas de Cursor
- UX superior: interfaz visual basada en VS Code que todos conocen
- Composer multi-archivo: modifica varios archivos con un solo prompt
- Autocompletado en tiempo real más rápido que cualquier alternativa
- Ecosistema maduro: miles de extensiones y documentación extensa
- Integración nativa con Codebase RAG: entiende todo tu proyecto
Debilidades de Cursor
- $20/mes: coste fijo aunque no lo uses intensivamente
- Dependencia de proveedores: modelos disponibles limitados por acuerdos de Cursor
- Closed source: no puedes auditar ni modificar
- Sin modelos locales reales: soporte Ollama experimental y limitado
Cuándo elegir Cursor
- ✅ Desarrollas proyectos web/móvil con mucho trabajo multi-archivo
- ✅ Prefieres interfaz gráfica integrada en tu flujo de VS Code
- ✅ El autocompletado inteligente es tu función más usada
- ❌ No ideal si quieres modelos locales o privacidad estricta
- ❌ No recomendado si el presupuesto es ajustado
Claude Code: La Potencia Bruta
Claude Code es el agente de Anthropic para terminal, optimizado exclusivamente para los modelos Claude. Su punto fuerte es el rendimiento en tareas complejas: 72,5% en SWE-Bench con Claude Opus 4.6, el mejor resultado del mercado.
Fortalezas de Claude Code
- Mejor razonamiento complejo: Claude Opus 4.6 supera a GPT y Gemini en tareas difíciles
- Integración perfecta con Anthropic: máximo rendimiento con los modelos Claude
- MCP maduro: creado por Anthropic, la integración MCP es de primera clase
- Pay-per-use: pagas solo lo que usas, sin suscripción mensual fija
- Actualizaciones prioritarias: primero en recibir los nuevos modelos Claude
Debilidades de Claude Code
- Solo Anthropic: si el modelo de Claude no te satisface para cierta tarea, no puedes cambiar
- Costes pueden dispararse: en proyectos intensivos, el pay-per-use supera los $50/mes
- Sin modelos locales: requiere conexión a internet siempre
- Closed source: no auditable
Cuándo elegir Claude Code
- ✅ Necesitas el mejor rendimiento en tareas de razonamiento complejo
- ✅ Haces DevOps, infraestructura o análisis de código a gran escala
- ✅ Eres desarrollador senior que valora la calidad sobre el precio
- ❌ No ideal si tienes presupuesto limitado (puede ser caro)
- ❌ No recomendado si necesitas modelos locales o multi-proveedor
Comparativa de Precios: Cuánto Pagas al Mes
| Perfil de uso | OpenCode | Cursor | Claude Code |
|---|---|---|---|
| Uso ocasional (<20h/mes) | $5-15 (API) | $20 | $8-20 |
| Uso regular (20-40h/mes) | $15-30 (API) | $20 | $25-50 |
| Uso intensivo (40h+/mes) | $30-60 (API) | $20 | $60-150 |
| Modelos locales | $0 | No disponible | No disponible |
| Con GitHub Copilot | ~$0 extra | No aplica | No aplica |
El truco del ahorro: Si ya tienes GitHub Copilot ($19/mes) o ChatGPT Plus ($20/mes), OpenCode puede usar esas cuentas como proveedor. Coste adicional: $0.
Casos de Uso: Cuál Elegir
Para Vibe Coding de Proyectos Personales
Ganador: OpenCode
1Ranking:21. OpenCode — Gratis con Ollama, sin límites, sin suscripción32. Claude Code — Pay-per-use, perfecto para sesiones cortas43. Cursor — $20/mes puede ser excesivo para proyectos personales
Para Desarrollo Profesional en Empresa
Ganador: Cursor
1Ranking:21. Cursor — UX superior, integración IDE, soporte empresarial32. Claude Code — Mejor para tareas complejas puntuales43. OpenCode — Requiere más setup, mejor para equipos técnicos
Para Privacidad y Código Sensible
Ganador: OpenCode + Ollama
1Ranking:21. OpenCode (+ Ollama local) — 100% local, sin datos en cloud32. OpenCode (+ API propia) — Al menos controlas con quién compartes43. Cursor/Claude Code — Cloud-first, no para datos confidenciales
Para Tareas de DevOps e Infraestructura
Ganador: Claude Code
1Ranking:21. Claude Code — Mejor razonamiento, integración MCP madura32. OpenCode — Flexible, soporta múltiples modelos43. Cursor — No optimizado para terminal y devops
Para Principiantes en Vibe Coding
Ganador: Cursor
1Ranking:21. Cursor — Menor curva de aprendizaje, UI conocida32. OpenCode — Requiere conocimiento de terminal43. Claude Code — Terminal-only, no ideal para principiantes
Mi Recomendación Personal
Llevo usando OpenCode desde su versión 0.1 y es mi herramienta principal para proyectos personales y experimentos rápidos. La razón es simple: no me caso con ningún modelo. Cuando necesito máxima calidad, uso Claude Opus. Cuando necesito velocidad y precio, cambio a GPT-5.3 Codex Spark. Cuando trabajo con código sensible, activo Ollama local.
Mi setup actual:
- OpenCode + Claude Sonnet 4.6 para desarrollo diario (mejor balance calidad/precio)
- OpenCode + Qwen3-Coder 8B (Ollama) para refactorizaciones largas sin coste
- Claude Code cuando el problema requiere razonamiento muy complejo
Para la mayoría de desarrolladores en 2026, recomiendo empezar con OpenCode + Claude Sonnet 4.6 o reutilizar tu cuenta de GitHub Copilot. Es gratis de base, flexible, y cuando necesites más potencia tienes 74 proveedores más disponibles.
Preguntas Frecuentes (FAQ)
¿Qué es OpenCode?
OpenCode es un agente IA de codificación open source para terminal, desarrollado por Anomaly Innovations. Permite usar más de 75 proveedores de IA (Claude, GPT-5.3, Gemini, Ollama...) para programar, refactorizar y depurar código directamente desde la línea de comandos, con soporte nativo de MCP para integrar herramientas externas.
¿Es OpenCode gratis?
Sí, OpenCode en sí es gratuito y open source (licencia MIT). Los costes vienen de los modelos que uses:
- Con Ollama (modelos locales): $0 total
- Con GitHub Copilot o ChatGPT Plus ya suscritos: $0 adicional
- Con API de Claude o OpenAI: pago por uso, aproximadamente $5-30/mes según uso
¿Cuál es mejor, OpenCode o Cursor?
| Para... | Ganador |
|---|---|
| Libertad de modelos | OpenCode |
| UX visual y GUI | Cursor |
| Privacidad y local | OpenCode |
| Uso corporativo | Cursor |
| Presupuesto limitado | OpenCode |
| Principiantes | Cursor |
¿OpenCode funciona con GPT-5.3?
Sí. OpenCode soporta todos los modelos de OpenAI, incluyendo GPT-5.3 Codex Spark (codex-mini-latest) y GPT-5.3 estándar. Solo necesitas configurar tu OPENAI_API_KEY en el fichero de configuración o mediante variable de entorno.
¿Cómo añado un MCP server a OpenCode?
Hay dos métodos:
Método 1 (interactivo):
1opencode mcp add
Método 2 (manual en opencode.json):
1{2 "mcp": {3 "mi-servidor": {4 "type": "local",5 "command": ["npx", "-y", "@modelcontextprotocol/server-github"],6 "env": { "GITHUB_TOKEN": "ghp_..." }7 }8 }9}
¿OpenCode funciona sin internet?
Sí, con Ollama. Si configuras un modelo local (como Qwen3-Coder 8B), OpenCode funciona completamente offline. Ningún dato sale de tu máquina. Ideal para entornos corporativos con restricciones de red o código confidencial.
¿Cuándo salió OpenCode?
La primera versión pública fue en octubre 2025. El soporte MCP completo llegó en noviembre 2025, y la integración estable con Ollama en diciembre 2025. En enero 2026 alcanzó 50.000 estrellas en GitHub y en febrero de 2026 supera las 90.000.
Recursos Adicionales
- OpenCode oficial — Documentación y descargas
- GitHub opencode-ai/opencode — Código fuente (90k ⭐)
- MCP Servers en OpenCode — Guía oficial de MCP
- La Escuela de IA — Comunidad gratuita de IA aplicada
- LinkedIn de Javier Santos - Conecta conmigo
- YouTube @JavadexAI — Tutoriales de herramientas IA
Posts Relacionados
- Windsurf vs Cursor vs Claude Code vs Copilot: Comparativa 2026 — Análisis completo de los editores IA más populares
- Cursor AI: Tutorial Completo para Programar con IA — Guía paso a paso de Cursor
- Qué es MCP: Model Context Protocol explicado — Todo sobre el protocolo que usa OpenCode
- Ollama: Ejecutar Modelos IA en Local — Configura Ollama para usar con OpenCode
Actualizado: 27 de febrero de 2026. OpenCode v0.1.92+. Los precios y métricas pueden variar. Verifica siempre la documentación oficial.
