Ir al contenido principal
Desarrollo & IA

Google AI Studio Tutorial en Español: Usar Gemini API [2026]

8 de febrero de 2026
38 min

Guía completa Google AI Studio: usar Gemini API, crear prompts, multimodal (texto, imagen, vídeo).

Javier Santos

Especialista en IA & Machine Learning

📧¿Te gusta este contenido?

Únete a 547+ profesionales que reciben tips de IA cada semana. Sin spam, cancela cuando quieras.

Google AI Studio Tutorial en Español: Usar Gemini API [2026]

Google AI Studio (anteriormente Maker Suite) es el entorno más subestimado para trabajar con IA en 2026. Mientras otros se pelean por OpenAI, Google ofrece un modelo (Gemini) que es más potente, más barato, y con capacidades que ChatGPT aún no tiene. Esta guía te enseña a dominarlo completamente.

¿Qué es Google AI Studio?

Google AI Studio es:

  1. Interfaz visual para diseñar prompts sin código
  2. Playground para probar Gemini en tiempo real
  3. Generador de API keys para integración en apps
  4. Editor de instrucciones de sistema para personalización
  5. Herramienta de ingeniería de prompts con versionado

A diferencia de ChatGPT:

  • No necesitas suscripción mensual
  • API muy barata ($0.075 por millón de tokens de entrada vs $0.003 en OpenAI para gpt-3.5)
  • Mejor manejo de contexto largo (1 millón de tokens)
  • Multimodal nativo (texto + imagen + audio + video)

Acceso: https://aistudio.google.com (gratis, requiere cuenta Google)

Paso 1: Crear tu Cuenta y Primer Proyecto

Registrarse en Google AI Studio

code
11. Ve a https://aistudio.google.com
22. Haz clic en "Sign in with Google"
33. Usa tu cuenta Google (Gmail, cuenta corporativa, etc.)
44. Acepta términos
55. ¡Listo! Ya estás en el dashboard

Pantalla inicial:

  • Create new project
  • Recent projects
  • Quickstart guides (útiles para principiantes)

Crear tu Primera Sesión

code
1Dashboard → New → Chat

Te abre una interfaz similar a ChatGPT:

  • Texto input
  • Response histórico arriba
  • Settings a la derecha

Ahora estás listo para tu primer prompt.

Paso 2: Entender la Interface de Prompts

Las 3 Elementos Clave

1. System Instructions (Instrucciones de Sistema)

Define cómo se comporta el modelo. Ejemplo:

code
1Eres un experto en marketing digital español.
2Hablas de forma amigable, sin jerga innecesaria.
3Siempre basas recomendaciones en datos 2026.
4Si no sabes algo, lo dices explícitamente.
5Máximo: 3 párrafos por respuesta.

2. Chat Input (Entrada de Conversación)

Lo que escribes:

code
1"¿Cuál es la mejor estrategia de content marketing para un e-commerce de ropa?"

3. Settings (Configuración del Modelo)

json
1{
2 "model": "Gemini 2.0 Flash", // O Gemini 1.5 Pro
3 "temperature": 0.7, // 0=determinístico, 1=creativo
4 "top_p": 0.95, // Variabilidad
5 "max_output_tokens": 1024, // Límite respuesta
6 "top_k": 40 // Opciones consideradas
7}

Casos de Uso: Desde Básico hasta Avanzado

Caso 1: Chatbot de Servicio al Cliente

System Instructions:

code
1Eres agente de servicio al cliente de una tienda online de electrónica.
2 
3Tu objetivo: resolver problemas y facilitar compras.
4 
5Comportamiento:
6- Responde en español formal pero amigable
7- Si no puedes resolver, esca la a "support@empresa.com"
8- Máximo 3 líneas (brevedad)
9- Usa emojis solo cuando sea apropiado
10- Nunca prometas cosas que no puedes cumplir
11 
12Horarios de operación: lunes-viernes 9am-6pm (otros horarios responde: "Estaremos disponibles mañana a las 9am")
13 
14Base de datos de productos disponibles:
15- iPhone 15: €999
16- Galaxy S24: €899
17- Garantía extendida: €199

Prompt del usuario:

code
1"¿Qué tal es el iPhone 15? ¿Recomendarías Galaxy en su lugar?"

Respuesta esperada:

code
1"iPhone 15 vs Galaxy S24: depende de ti.
2iPhone: cámara pro, A18 chip rápidísimo, 1 día batería, €999.
3Galaxy: pantalla AMOLED superior, 2 días batería, €899.
4¿Qué importa más, cámara o batería?"

Caso 2: Análisis de Documento Largo

Gemini maneja 1 millón de tokens. Puedes pegar una tesis completa y analizar.

System Instructions:

code
1Eres un analista académico especializado en extraer insights de documentos.
2 
3Tareas que realizarás:
41. Resumir puntos principales
52. Identificar vacíos de investigación
63. Sugerir mejoras
74. Clasificar por relevancia
8 
9Formato de output: JSON

Prompt:

code
1[Pegar aquí tu documento de 50 páginas]
2 
3Ahora, extrae:
41. Argumentos principales (lista)
52. Metodología empleada
63. Limitaciones del estudio
74. Conclusiones clave
85. Áreas para investigación futura

Resultado: Análisis completo en 10 segundos. Algo que tomaría 1 hora leer manualmente.

Caso 3: Multimodal - Imagen + Análisis

Google AI Studio soporta imágenes nativamente.

code
11. En el input, haz clic en "Attach files" (clip)
22. Sube una imagen (screenshot, gráfico, foto)
33. Pregunta algo sobre ella

Ejemplo práctico:

Subes screenshot de tu dashboard de Google Analytics.

code
1System Instructions:
2"Eres experto en analítica web y optimización de conversión."
3 
4Prompt:
5"Analiza este screenshot de GA4 y sugiere 3 cambios principales para mejorar la tasa de conversión."

Gemini describe:

  • Tráfico por fuente
  • Tasas de rebote
  • Embudo de conversión
  • Y sugiere mejoras específicas

Caso 4: Vídeo (Gemini 2.0 Flash)

Gemini 2.0 puede analizar videos enteros.

code
11. Sube un vídeo (hasta 1 hora en versión Pro)
22. Pregunta sobre contenido

Casos de uso reales:

  • Análisis de reunión: Sube grabación Zoom, pide "resumen ejecutivo + action items"
  • Análisis de competencia: Sube vídeo de competidor, pide "¿qué estrategia de marketing usan?"
  • QA de producto: Sube vídeo demo, pide "¿qué bugs ves?"

Técnicas Avanzadas de Prompting

1. Chain-of-Thought (Razonamiento Paso a Paso)

En lugar de pedir respuesta directa, pide que razone.

MAL:

code
1"¿Cuál es el mejor framework de Python para ML?"

(Respuesta superficial)

BIEN:

code
1"Necesito un framework de Python para ML. Mis requisitos:
2- Proyecto pequeño (5MB datos máximo)
3- Necesito entrenamiento rápido (<5 minutos)
4- Precisión importante, no interpretabilidad
5- Requiero soporte de GPU
6 
7Razona paso a paso:
81. ¿Qué frameworks existen?
92. ¿Cuál cumple cada requisito?
103. Comparativa final
114. Tu recomendación con justificación"

(Respuesta profunda y razonada)

2. Few-Shot Learning (Ejemplos)

Mostrar ejemplos entrena el modelo para tu caso específico.

code
1System Instructions:
2"Eres clasificador de sentimiento para tweets en español.
3 
4Ejemplos:
5Tweet: 'Adoroooo este producto! 😍' → Sentimiento: POSITIVO, confianza: 0.95
6Tweet: 'El servicio fue horrible y carísimooo' → Sentimiento: NEGATIVO, confianza: 0.92
7Tweet: 'El producto es ok, nada especial' → Sentimiento: NEUTRAL, confianza: 0.78
8 
9Ahora clasifica este tweet:"
10 
11[Prompt del usuario con nuevo tweet]

Resultado: Clasificación perfecta porque le diste ejemplos.

3. Role Playing (Asumir un Rol)

code
1"Actúa como consultor de estrategia empresarial con 20 años de experiencia.
2 
3Mi empresa tiene:
4- Ingresos: €500k/año
5- Equipo: 3 personas
6- Producto: Software SaaS de CRM
7 
8Mi pregunta: ¿Debería pivotar a vertical específico (ej: agencias) o mantener horizontal?
9 
10Dame tu análisis como lo haría un consultor ($500/hora)."

Gemini asume el rol completamente y responde con experiencia simulada.

4. Structured Output (JSON)

code
1System Instructions:
2"Tu output SIEMPRE debe ser JSON válido. Estructura:
3{
4 'titulo': string,
5 'resumen': string,
6 'puntos_clave': [string],
7 'accion_siguiente': string,
8 'confianza': number (0-1)
9}"
10 
11Prompt:
12"Analiza este artículo [pegar contenido] y responde en JSON."

Resultado: JSON limpio, listo para procesar en código.

Integración con Python (API)

Paso 1: Obtener API Key

code
1En AI Studio: Top right → ⚙️ Settings → API keys
2Click: Create API Key
3 
4Copia el token (empieza con "AIza...")
5NUNCA lo compartas públicamente

Paso 2: Instalar SDK de Google

bash
1pip install google-generativeai

Paso 3: Script Básico

python
1import google.generativeai as genai
2 
3# Configurar API key
4genai.configure(api_key="AIza...")
5 
6# Crear modelo
7model = genai.GenerativeModel('gemini-2.0-flash')
8 
9# Enviar prompt
10response = model.generate_content(
11 "¿Cuál es el significado de la vida?"
12)
13 
14print(response.text)
15# Output: "El significado de la vida es una pregunta existencial..."

Paso 4: Sistema Completo (System Instructions + Chat)

python
1import google.generativeai as genai
2 
3genai.configure(api_key="AIza...")
4 
5# Definir el sistema
6system_prompt = """
7Eres un experto en productividad personal.
8Hablas de forma motivacional pero realista.
9Siempre das 3 acciones concretas y mensurables.
10Máximo 2 párrafos.
11"""
12 
13# Crear modelo con sistema
14model = genai.GenerativeModel(
15 model_name='gemini-2.0-flash',
16 system_instruction=system_prompt
17)
18 
19# Chat conversacional
20chat = model.start_chat(history=[])
21 
22while True:
23 user_input = input("Tú: ")
24 if user_input.lower() == "salir":
25 break
26 
27 response = chat.send_message(user_input)
28 print(f"IA: {response.text}\n")

Paso 5: Multimodal - Análisis de Imagen

python
1import google.generativeai as genai
2from pathlib import Path
3 
4genai.configure(api_key="AIza...")
5 
6# Cargar imagen
7imagen = genai.upload_file(path="screenshot.png")
8 
9# Crear modelo
10model = genai.GenerativeModel("gemini-2.0-flash")
11 
12# Analizar
13response = model.generate_content([
14 "Analiza esta imagen y describe qué ves. Formato: JSON",
15 imagen
16])
17 
18print(response.text)

Paso 6: Procesar Video

python
1import google.generativeai as genai
2import time
3 
4genai.configure(api_key="AIza...")
5 
6# Subir video (puede tomar tiempo)
7video = genai.upload_file(path="reunion.mp4")
8 
9# Esperar procesamiento
10print("Procesando video...")
11while video.state.name == "PROCESSING":
12 time.sleep(2)
13 video = genai.get_file(video.name)
14 
15# Analizar
16model = genai.GenerativeModel("gemini-2.0-flash")
17response = model.generate_content([
18 "Resumen ejecutivo de esta reunión. Puntos principales, decisiones, action items.",
19 video
20])
21 
22print(response.text)

Una limitación de LLMs: no conocen eventos recientes (trained data cutoff).

Gemini 2.0 puede hacer búsqueda en tiempo real.

python
1import google.generativeai as genai
2 
3genai.configure(api_key="AIza...")
4 
5model = genai.GenerativeModel(
6 'gemini-2.0-flash',
7 tools='google_search' # Activar búsqueda
8)
9 
10response = model.generate_content(
11 "¿Quién ganó el Balón de Oro 2026? Dame datos verificados."
12)
13 
14# Gemini busca en Google, encuentra la respuesta actual
15print(response.text)

Resultado: Respuestas siempre actualizadas con hechos reales.

Function Calling (Ejecutar Código desde IA)

Gemini puede llamar a funciones que tú defines.

python
1import google.generativeai as genai
2import json
3 
4genai.configure(api_key="AIza...")
5 
6# Definir función que IA puede llamar
7def obtener_temperatura(ciudad):
8 """Simula obtener temperatura. En real, consultarías API de OpenWeatherMap"""
9 temps = {
10 "Madrid": 22,
11 "Barcelona": 19,
12 "Bilbao": 16
13 }
14 return temps.get(ciudad, "Unknown")
15 
16# Decirle a Gemini sobre la función
17tools = [
18 {
19 "type": "function",
20 "function": {
21 "name": "obtener_temperatura",
22 "description": "Obtiene temperatura actual en ciudad española",
23 "parameters": {
24 "type": "object",
25 "properties": {
26 "ciudad": {
27 "type": "string",
28 "description": "Nombre de ciudad"
29 }
30 },
31 "required": ["ciudad"]
32 }
33 }
34 }
35]
36 
37model = genai.GenerativeModel(
38 'gemini-2.0-flash',
39 tools=tools
40)
41 
42# Usuario pregunta
43response = model.generate_content(
44 "¿Qué temperaturas hay en Madrid, Barcelona y Bilbao?"
45)
46 
47# Gemini llama automáticamente a obtener_temperatura 3 veces
48# Luego sintetiza: "Madrid 22°C, Barcelona 19°C, Bilbao 16°C"
49print(response.text)

Pricing y Cálculo de Costos

Modelo de Precios 2026

ModeloEntradaSalidaCaso de Uso
Gemini 2.0 Flash$0.075/1M tokens$0.30/1M tokensRecomendado, rápido
Gemini 1.5 Pro$3.50/1M tokens$10.50/1M tokensAnálisis complejo
Gemini 1.5 Flash$0.075/1M tokens$0.30/1M tokensMismo que 2.0
Comparación con OpenAI:

code
1OpenAI GPT-4: $3/1M entrada, $6/1M salida
2OpenAI GPT-3.5: $0.50/1M entrada, $1.50/1M salida
3Gemini 2.0 Flash: $0.075/1M entrada, $0.30/1M salida → 6x más barato

Cálculo Práctico

Ejemplo: Chatbot que procesa 10,000 mensajes al mes.

code
1Promedio por mensaje:
2- Entrada: 150 tokens
3- Salida: 200 tokens
4- Total: 350 tokens/mensaje
5 
6Cálculo mensual (Gemini 2.0 Flash):
7- Entrada: 10,000 × 150 = 1,500,000 tokens
8- Costo entrada: 1.5M ÷ 1M × $0.075 = $0.11
9 
10- Salida: 10,000 × 200 = 2,000,000 tokens
11- Costo salida: 2M ÷ 1M × $0.30 = $0.60
12 
13Total mensual: $0.71
14Anual: $8.52

Con OpenAI (GPT-3.5):

code
1Entrada: 1.5M ÷ 1M × $0.50 = $0.75
2Salida: 2M ÷ 1M × $1.50 = $3.00
3Total: $3.75/mes = $45/año

Ahorro con Gemini: $36.48 anuales. Si lo usas mucho, es 10x menos caro.

Errores Comunes a Evitar

Error 1: Usar Model Incorrecto

code
1❌ MAL: Usar Gemini 1.5 Pro para tareas simples
2 - Caro ($3.50/1M entrada)
3 - Más lento
4 - Overkill para chatbot
5 
6✅ BIEN: Usar Gemini 2.0 Flash
7 - 8x más barato
8 - Casi mismo performance
9 - Más rápido

Error 2: No Limpiar API Key

code
1❌ MAL: Guardar API key en código
2 git add app.py # Contiene "AIza..."
3 git push # AHORA ESTÁ EN GITHUB
4 
5✅ BIEN: Usar variables de entorno
6 export GEMINI_API_KEY="AIza..."
7 genai.configure(api_key=os.getenv("GEMINI_API_KEY"))

Error 3: No Dar Context

code
1❌ MAL:
2 "¿Cuál es el mejor framework?"
3 (Respuesta genérica)
4 
5✅ BIEN:
6 "Necesito framework para proyecto ML con estos requisitos:
7 [lista detalles]
8 Mi contexto: 5 años Python, principiante en ML
9 Resultado esperado: [especificar]"
10 (Respuesta personalizada)

Error 4: Confundir Gratis vs Pagado

code
1AI Studio (interfaz web): Gratis, algunos usos limitados
2API (para apps): Pagada por uso, pero muy barata
3Límite de rate: 2 requests/segundo (gratis), más si pagas

Error 5: No Versionar Prompts

Cuando encuentras un prompt que funciona bien:

code
1✅ Guárdalo en Google Docs / Notion
2✅ Anota parámetros que usaste (temperature, max tokens)
3✅ Anota date de creación
4✅ Comparte con equipo
5 
6Ejemplo:
7Nombre: Resumen de Reuniones
8Fecha: 2026-02-08
9Modelos probados: Gemini 2.0 Flash (mejor), Gemini 1.5 Pro
10Temperature: 0.3 (determinístico)
11Casos de uso: Reuniones, webinars
12Performance: 95% de precisión

Prompt Engineering Avanzado

Template: Propósito + Contexto + Pasos + Formato

code
1PROPÓSITO:
2"Necesito analizar competencia y extraer estrategias clave."
3 
4CONTEXTO:
5"Soy fundador de SaaS de CRM. Competidores principales:
6- Salesforce (enterprise, caro)
7- HubSpot (mid-market, friendly)
8- Pipedrive (simplista, barato)
9Mi target: pequeñas agencias (10-50 personas)"
10 
11PASOS:
12"1. Analiza precios de cada uno
132. Compara features principales
143. Identifica gaps en mercado
154. Sugiere mi diferenciador único
16 
17FORMATO:
18"Output en tabla Markdown con:
19- Competidor | Precio | Público | Fortaleza | Debilidad"
20 
21TONE:
22"Habla como asesor estratégico, no vendedor."

Resultado: Output personalizado, estructura clara, útil inmediatamente.

Técnica: Cascade (Múltiples Prompts)

Para tareas complejas, usa múltiples prompts secuenciales:

python
1# Paso 1: Extraer datos
2response1 = model.generate_content(
3 "Extrae datos clave de este artículo: [artículo]"
4)
5datos = response1.text
6 
7# Paso 2: Analizar
8response2 = model.generate_content(
9 f"Analiza estos datos y sugiere 3 insights: {datos}"
10)
11insights = response2.text
12 
13# Paso 3: Actionar
14response3 = model.generate_content(
15 f"De estos insights: {insights}, crea plan de 30 días"
16)
17plan = response3.text
18 
19print(plan)

Resultado: Output de calidad superior. Cada paso construye sobre el anterior.

Comparativa: Gemini vs OpenAI vs Claude 2026

CriterioGemini 2.0GPT-4 TurboClaude 3.5
Precio$0.075 entrada$3.00 entrada$3.00 entrada
Velocidad⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐
Calidad⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐
MultimodalTexto, imagen, video, audioTexto, imagenTexto, imagen
Context window1,000,000 tokens128,000 tokens200,000 tokens
Mejor paraVelocidad, costoPrecisiónAnálisis profundo
Latencia0.5-1s2-3s1-2s
Recomendación:
  • Chatbots/aplicaciones con alto volumen → Gemini
  • Análisis complejos puntuales → Claude
  • Production code de alto valor → OpenAI
  • Presupuesto limitado → Gemini

FAQ: Google AI Studio y Gemini API

¿Hay límite de uso gratis?

Sí. Gemini tiene límite de "rate":

  • 2 requests/segundo (gratis)
  • 10 requests/segundo (con crédito de prueba)
  • Ilimitado si pagas

Para 10,000 requests/día (116 por segundo promedio), necesitarías plan pagado.

¿Gemini comprende español mejor que OpenAI?

Sí. Gemini fue entrenado extensivamente en español, especialmente español de España. Entiende regionalismos, referencias culturales españolas, y tiene menos sesgos hacia inglés/americano.

¿Puedo usar Gemini para generar imágenes?

No directamente en Gemini API. Google tiene herramienta separada (ImageFX). Pero Gemini puede:

  • Analizar imágenes
  • Sugerir mejoras
  • Describir cómo se vería algo

Si necesitas generar, usa DALL-E (OpenAI) o Imagen (Google, separado).

¿Qué sucede con mis datos?

Google usa tus prompts para mejorar modelos (default). Para privacidad:

  • Usa data isolation (enterprises)
  • O configure: No envíes datos sensibles (SSN, contraseñas, datos médicos)
  • Para production, lee política privacidad completa

¿Puedo usar Gemini para producción?

Absolutamente. Muchas empresas españolas ya lo usan:

  • Telefónica (análisis de datos)
  • Glovo (optimización de rutas)
  • Startups del Valle de Valdebernardo

Gemini es production-ready, SLA incluido.

¿Qué ocurre si excedo límites de rate?

Obtienes error 429 (Too Many Requests). Solución:

python
1import time
2 
3def llamar_con_reintentos(prompt, max_intentos=3):
4 for intento in range(max_intentos):
5 try:
6 return model.generate_content(prompt)
7 except Exception as e:
8 if "429" in str(e):
9 espera = 2 ** intento # 1s, 2s, 4s
10 time.sleep(espera)
11 else:
12 raise

Exponential backoff automático.

📬

¿Te ha gustado? Hay más cada semana

Únete a "IA Sin Humo" — la newsletter donde comparto lo que realmente funciona en inteligencia artificial. Sin teoría innecesaria, sin postureo.

📚

1 Tutorial

Paso a paso, práctico

🛠️

3 Herramientas

Probadas y útiles

💡

0 Bullshit

Solo lo que importa

+547 suscriptores • Cada martes • Cancela cuando quieras