Google AI Studio Tutorial en Español: Usar Gemini API [2026]
Google AI Studio (anteriormente Maker Suite) es el entorno más subestimado para trabajar con IA en 2026. Mientras otros se pelean por OpenAI, Google ofrece un modelo (Gemini) que es más potente, más barato, y con capacidades que ChatGPT aún no tiene. Esta guía te enseña a dominarlo completamente.
¿Qué es Google AI Studio?
Google AI Studio es:
- Interfaz visual para diseñar prompts sin código
- Playground para probar Gemini en tiempo real
- Generador de API keys para integración en apps
- Editor de instrucciones de sistema para personalización
- Herramienta de ingeniería de prompts con versionado
A diferencia de ChatGPT:
- No necesitas suscripción mensual
- API muy barata ($0.075 por millón de tokens de entrada vs $0.003 en OpenAI para gpt-3.5)
- Mejor manejo de contexto largo (1 millón de tokens)
- Multimodal nativo (texto + imagen + audio + video)
Acceso: https://aistudio.google.com (gratis, requiere cuenta Google)
Paso 1: Crear tu Cuenta y Primer Proyecto
Registrarse en Google AI Studio
11. Ve a https://aistudio.google.com22. Haz clic en "Sign in with Google"33. Usa tu cuenta Google (Gmail, cuenta corporativa, etc.)44. Acepta términos55. ¡Listo! Ya estás en el dashboard
Pantalla inicial:
- Create new project
- Recent projects
- Quickstart guides (útiles para principiantes)
Crear tu Primera Sesión
1Dashboard → New → Chat
Te abre una interfaz similar a ChatGPT:
- Texto input
- Response histórico arriba
- Settings a la derecha
Ahora estás listo para tu primer prompt.
Paso 2: Entender la Interface de Prompts
Las 3 Elementos Clave
1. System Instructions (Instrucciones de Sistema)
Define cómo se comporta el modelo. Ejemplo:
1Eres un experto en marketing digital español.2Hablas de forma amigable, sin jerga innecesaria.3Siempre basas recomendaciones en datos 2026.4Si no sabes algo, lo dices explícitamente.5Máximo: 3 párrafos por respuesta.
2. Chat Input (Entrada de Conversación)
Lo que escribes:
1"¿Cuál es la mejor estrategia de content marketing para un e-commerce de ropa?"
3. Settings (Configuración del Modelo)
1{2 "model": "Gemini 2.0 Flash", // O Gemini 1.5 Pro3 "temperature": 0.7, // 0=determinístico, 1=creativo4 "top_p": 0.95, // Variabilidad5 "max_output_tokens": 1024, // Límite respuesta6 "top_k": 40 // Opciones consideradas7}
Casos de Uso: Desde Básico hasta Avanzado
Caso 1: Chatbot de Servicio al Cliente
System Instructions:
1Eres agente de servicio al cliente de una tienda online de electrónica.2 3Tu objetivo: resolver problemas y facilitar compras.4 5Comportamiento:6- Responde en español formal pero amigable7- Si no puedes resolver, esca la a "support@empresa.com"8- Máximo 3 líneas (brevedad)9- Usa emojis solo cuando sea apropiado10- Nunca prometas cosas que no puedes cumplir11 12Horarios de operación: lunes-viernes 9am-6pm (otros horarios responde: "Estaremos disponibles mañana a las 9am")13 14Base de datos de productos disponibles:15- iPhone 15: €99916- Galaxy S24: €89917- Garantía extendida: €199
Prompt del usuario:
1"¿Qué tal es el iPhone 15? ¿Recomendarías Galaxy en su lugar?"
Respuesta esperada:
1"iPhone 15 vs Galaxy S24: depende de ti.2iPhone: cámara pro, A18 chip rápidísimo, 1 día batería, €999.3Galaxy: pantalla AMOLED superior, 2 días batería, €899.4¿Qué importa más, cámara o batería?"
Caso 2: Análisis de Documento Largo
Gemini maneja 1 millón de tokens. Puedes pegar una tesis completa y analizar.
System Instructions:
1Eres un analista académico especializado en extraer insights de documentos.2 3Tareas que realizarás:41. Resumir puntos principales52. Identificar vacíos de investigación63. Sugerir mejoras74. Clasificar por relevancia8 9Formato de output: JSON
Prompt:
1[Pegar aquí tu documento de 50 páginas]2 3Ahora, extrae:41. Argumentos principales (lista)52. Metodología empleada63. Limitaciones del estudio74. Conclusiones clave85. Áreas para investigación futura
Resultado: Análisis completo en 10 segundos. Algo que tomaría 1 hora leer manualmente.
Caso 3: Multimodal - Imagen + Análisis
Google AI Studio soporta imágenes nativamente.
11. En el input, haz clic en "Attach files" (clip)22. Sube una imagen (screenshot, gráfico, foto)33. Pregunta algo sobre ella
Ejemplo práctico:
Subes screenshot de tu dashboard de Google Analytics.
1System Instructions:2"Eres experto en analítica web y optimización de conversión."3 4Prompt:5"Analiza este screenshot de GA4 y sugiere 3 cambios principales para mejorar la tasa de conversión."
Gemini describe:
- Tráfico por fuente
- Tasas de rebote
- Embudo de conversión
- Y sugiere mejoras específicas
Caso 4: Vídeo (Gemini 2.0 Flash)
Gemini 2.0 puede analizar videos enteros.
11. Sube un vídeo (hasta 1 hora en versión Pro)22. Pregunta sobre contenido
Casos de uso reales:
- Análisis de reunión: Sube grabación Zoom, pide "resumen ejecutivo + action items"
- Análisis de competencia: Sube vídeo de competidor, pide "¿qué estrategia de marketing usan?"
- QA de producto: Sube vídeo demo, pide "¿qué bugs ves?"
Técnicas Avanzadas de Prompting
1. Chain-of-Thought (Razonamiento Paso a Paso)
En lugar de pedir respuesta directa, pide que razone.
MAL:
1"¿Cuál es el mejor framework de Python para ML?"
(Respuesta superficial)
BIEN:
1"Necesito un framework de Python para ML. Mis requisitos:2- Proyecto pequeño (5MB datos máximo)3- Necesito entrenamiento rápido (<5 minutos)4- Precisión importante, no interpretabilidad5- Requiero soporte de GPU6 7Razona paso a paso:81. ¿Qué frameworks existen?92. ¿Cuál cumple cada requisito?103. Comparativa final114. Tu recomendación con justificación"
(Respuesta profunda y razonada)
2. Few-Shot Learning (Ejemplos)
Mostrar ejemplos entrena el modelo para tu caso específico.
1System Instructions:2"Eres clasificador de sentimiento para tweets en español.3 4Ejemplos:5Tweet: 'Adoroooo este producto! 😍' → Sentimiento: POSITIVO, confianza: 0.956Tweet: 'El servicio fue horrible y carísimooo' → Sentimiento: NEGATIVO, confianza: 0.927Tweet: 'El producto es ok, nada especial' → Sentimiento: NEUTRAL, confianza: 0.788 9Ahora clasifica este tweet:"10 11[Prompt del usuario con nuevo tweet]
Resultado: Clasificación perfecta porque le diste ejemplos.
3. Role Playing (Asumir un Rol)
1"Actúa como consultor de estrategia empresarial con 20 años de experiencia.2 3Mi empresa tiene:4- Ingresos: €500k/año5- Equipo: 3 personas6- Producto: Software SaaS de CRM7 8Mi pregunta: ¿Debería pivotar a vertical específico (ej: agencias) o mantener horizontal?9 10Dame tu análisis como lo haría un consultor ($500/hora)."
Gemini asume el rol completamente y responde con experiencia simulada.
4. Structured Output (JSON)
1System Instructions:2"Tu output SIEMPRE debe ser JSON válido. Estructura:3{4 'titulo': string,5 'resumen': string,6 'puntos_clave': [string],7 'accion_siguiente': string,8 'confianza': number (0-1)9}"10 11Prompt:12"Analiza este artículo [pegar contenido] y responde en JSON."
Resultado: JSON limpio, listo para procesar en código.
Integración con Python (API)
Paso 1: Obtener API Key
1En AI Studio: Top right → ⚙️ Settings → API keys2Click: Create API Key3 4Copia el token (empieza con "AIza...")5NUNCA lo compartas públicamente
Paso 2: Instalar SDK de Google
1pip install google-generativeai
Paso 3: Script Básico
1import google.generativeai as genai2 3# Configurar API key4genai.configure(api_key="AIza...")5 6# Crear modelo7model = genai.GenerativeModel('gemini-2.0-flash')8 9# Enviar prompt10response = model.generate_content(11 "¿Cuál es el significado de la vida?"12)13 14print(response.text)15# Output: "El significado de la vida es una pregunta existencial..."
Paso 4: Sistema Completo (System Instructions + Chat)
1import google.generativeai as genai2 3genai.configure(api_key="AIza...")4 5# Definir el sistema6system_prompt = """7Eres un experto en productividad personal.8Hablas de forma motivacional pero realista.9Siempre das 3 acciones concretas y mensurables.10Máximo 2 párrafos.11"""12 13# Crear modelo con sistema14model = genai.GenerativeModel(15 model_name='gemini-2.0-flash',16 system_instruction=system_prompt17)18 19# Chat conversacional20chat = model.start_chat(history=[])21 22while True:23 user_input = input("Tú: ")24 if user_input.lower() == "salir":25 break26 27 response = chat.send_message(user_input)28 print(f"IA: {response.text}\n")
Paso 5: Multimodal - Análisis de Imagen
1import google.generativeai as genai2from pathlib import Path3 4genai.configure(api_key="AIza...")5 6# Cargar imagen7imagen = genai.upload_file(path="screenshot.png")8 9# Crear modelo10model = genai.GenerativeModel("gemini-2.0-flash")11 12# Analizar13response = model.generate_content([14 "Analiza esta imagen y describe qué ves. Formato: JSON",15 imagen16])17 18print(response.text)
Paso 6: Procesar Video
1import google.generativeai as genai2import time3 4genai.configure(api_key="AIza...")5 6# Subir video (puede tomar tiempo)7video = genai.upload_file(path="reunion.mp4")8 9# Esperar procesamiento10print("Procesando video...")11while video.state.name == "PROCESSING":12 time.sleep(2)13 video = genai.get_file(video.name)14 15# Analizar16model = genai.GenerativeModel("gemini-2.0-flash")17response = model.generate_content([18 "Resumen ejecutivo de esta reunión. Puntos principales, decisiones, action items.",19 video20])21 22print(response.text)
Grounding con Google Search
Una limitación de LLMs: no conocen eventos recientes (trained data cutoff).
Gemini 2.0 puede hacer búsqueda en tiempo real.
1import google.generativeai as genai2 3genai.configure(api_key="AIza...")4 5model = genai.GenerativeModel(6 'gemini-2.0-flash',7 tools='google_search' # Activar búsqueda8)9 10response = model.generate_content(11 "¿Quién ganó el Balón de Oro 2026? Dame datos verificados."12)13 14# Gemini busca en Google, encuentra la respuesta actual15print(response.text)
Resultado: Respuestas siempre actualizadas con hechos reales.
Function Calling (Ejecutar Código desde IA)
Gemini puede llamar a funciones que tú defines.
1import google.generativeai as genai2import json3 4genai.configure(api_key="AIza...")5 6# Definir función que IA puede llamar7def obtener_temperatura(ciudad):8 """Simula obtener temperatura. En real, consultarías API de OpenWeatherMap"""9 temps = {10 "Madrid": 22,11 "Barcelona": 19,12 "Bilbao": 1613 }14 return temps.get(ciudad, "Unknown")15 16# Decirle a Gemini sobre la función17tools = [18 {19 "type": "function",20 "function": {21 "name": "obtener_temperatura",22 "description": "Obtiene temperatura actual en ciudad española",23 "parameters": {24 "type": "object",25 "properties": {26 "ciudad": {27 "type": "string",28 "description": "Nombre de ciudad"29 }30 },31 "required": ["ciudad"]32 }33 }34 }35]36 37model = genai.GenerativeModel(38 'gemini-2.0-flash',39 tools=tools40)41 42# Usuario pregunta43response = model.generate_content(44 "¿Qué temperaturas hay en Madrid, Barcelona y Bilbao?"45)46 47# Gemini llama automáticamente a obtener_temperatura 3 veces48# Luego sintetiza: "Madrid 22°C, Barcelona 19°C, Bilbao 16°C"49print(response.text)
Pricing y Cálculo de Costos
Modelo de Precios 2026
| Modelo | Entrada | Salida | Caso de Uso |
|---|---|---|---|
| Gemini 2.0 Flash | $0.075/1M tokens | $0.30/1M tokens | Recomendado, rápido |
| Gemini 1.5 Pro | $3.50/1M tokens | $10.50/1M tokens | Análisis complejo |
| Gemini 1.5 Flash | $0.075/1M tokens | $0.30/1M tokens | Mismo que 2.0 |
1OpenAI GPT-4: $3/1M entrada, $6/1M salida2OpenAI GPT-3.5: $0.50/1M entrada, $1.50/1M salida3Gemini 2.0 Flash: $0.075/1M entrada, $0.30/1M salida → 6x más barato
Cálculo Práctico
Ejemplo: Chatbot que procesa 10,000 mensajes al mes.
1Promedio por mensaje:2- Entrada: 150 tokens3- Salida: 200 tokens4- Total: 350 tokens/mensaje5 6Cálculo mensual (Gemini 2.0 Flash):7- Entrada: 10,000 × 150 = 1,500,000 tokens8- Costo entrada: 1.5M ÷ 1M × $0.075 = $0.119 10- Salida: 10,000 × 200 = 2,000,000 tokens11- Costo salida: 2M ÷ 1M × $0.30 = $0.6012 13Total mensual: $0.7114Anual: $8.52
Con OpenAI (GPT-3.5):
1Entrada: 1.5M ÷ 1M × $0.50 = $0.752Salida: 2M ÷ 1M × $1.50 = $3.003Total: $3.75/mes = $45/año
Ahorro con Gemini: $36.48 anuales. Si lo usas mucho, es 10x menos caro.
Errores Comunes a Evitar
Error 1: Usar Model Incorrecto
1❌ MAL: Usar Gemini 1.5 Pro para tareas simples2 - Caro ($3.50/1M entrada)3 - Más lento4 - Overkill para chatbot5 6✅ BIEN: Usar Gemini 2.0 Flash7 - 8x más barato8 - Casi mismo performance9 - Más rápido
Error 2: No Limpiar API Key
1❌ MAL: Guardar API key en código2 git add app.py # Contiene "AIza..."3 git push # AHORA ESTÁ EN GITHUB4 5✅ BIEN: Usar variables de entorno6 export GEMINI_API_KEY="AIza..."7 genai.configure(api_key=os.getenv("GEMINI_API_KEY"))
Error 3: No Dar Context
1❌ MAL:2 "¿Cuál es el mejor framework?"3 (Respuesta genérica)4 5✅ BIEN:6 "Necesito framework para proyecto ML con estos requisitos:7 [lista detalles]8 Mi contexto: 5 años Python, principiante en ML9 Resultado esperado: [especificar]"10 (Respuesta personalizada)
Error 4: Confundir Gratis vs Pagado
1AI Studio (interfaz web): Gratis, algunos usos limitados2API (para apps): Pagada por uso, pero muy barata3Límite de rate: 2 requests/segundo (gratis), más si pagas
Error 5: No Versionar Prompts
Cuando encuentras un prompt que funciona bien:
1✅ Guárdalo en Google Docs / Notion2✅ Anota parámetros que usaste (temperature, max tokens)3✅ Anota date de creación4✅ Comparte con equipo5 6Ejemplo:7Nombre: Resumen de Reuniones8Fecha: 2026-02-089Modelos probados: Gemini 2.0 Flash (mejor), Gemini 1.5 Pro10Temperature: 0.3 (determinístico)11Casos de uso: Reuniones, webinars12Performance: 95% de precisión
Prompt Engineering Avanzado
Template: Propósito + Contexto + Pasos + Formato
1PROPÓSITO:2"Necesito analizar competencia y extraer estrategias clave."3 4CONTEXTO:5"Soy fundador de SaaS de CRM. Competidores principales:6- Salesforce (enterprise, caro)7- HubSpot (mid-market, friendly)8- Pipedrive (simplista, barato)9Mi target: pequeñas agencias (10-50 personas)"10 11PASOS:12"1. Analiza precios de cada uno132. Compara features principales143. Identifica gaps en mercado154. Sugiere mi diferenciador único16 17FORMATO:18"Output en tabla Markdown con:19- Competidor | Precio | Público | Fortaleza | Debilidad"20 21TONE:22"Habla como asesor estratégico, no vendedor."
Resultado: Output personalizado, estructura clara, útil inmediatamente.
Técnica: Cascade (Múltiples Prompts)
Para tareas complejas, usa múltiples prompts secuenciales:
1# Paso 1: Extraer datos2response1 = model.generate_content(3 "Extrae datos clave de este artículo: [artículo]"4)5datos = response1.text6 7# Paso 2: Analizar8response2 = model.generate_content(9 f"Analiza estos datos y sugiere 3 insights: {datos}"10)11insights = response2.text12 13# Paso 3: Actionar14response3 = model.generate_content(15 f"De estos insights: {insights}, crea plan de 30 días"16)17plan = response3.text18 19print(plan)
Resultado: Output de calidad superior. Cada paso construye sobre el anterior.
Comparativa: Gemini vs OpenAI vs Claude 2026
| Criterio | Gemini 2.0 | GPT-4 Turbo | Claude 3.5 |
|---|---|---|---|
| Precio | $0.075 entrada | $3.00 entrada | $3.00 entrada |
| Velocidad | ⭐⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ |
| Calidad | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ |
| Multimodal | Texto, imagen, video, audio | Texto, imagen | Texto, imagen |
| Context window | 1,000,000 tokens | 128,000 tokens | 200,000 tokens |
| Mejor para | Velocidad, costo | Precisión | Análisis profundo |
| Latencia | 0.5-1s | 2-3s | 1-2s |
- Chatbots/aplicaciones con alto volumen → Gemini
- Análisis complejos puntuales → Claude
- Production code de alto valor → OpenAI
- Presupuesto limitado → Gemini
FAQ: Google AI Studio y Gemini API
¿Hay límite de uso gratis?
Sí. Gemini tiene límite de "rate":
- 2 requests/segundo (gratis)
- 10 requests/segundo (con crédito de prueba)
- Ilimitado si pagas
Para 10,000 requests/día (116 por segundo promedio), necesitarías plan pagado.
¿Gemini comprende español mejor que OpenAI?
Sí. Gemini fue entrenado extensivamente en español, especialmente español de España. Entiende regionalismos, referencias culturales españolas, y tiene menos sesgos hacia inglés/americano.
¿Puedo usar Gemini para generar imágenes?
No directamente en Gemini API. Google tiene herramienta separada (ImageFX). Pero Gemini puede:
- Analizar imágenes
- Sugerir mejoras
- Describir cómo se vería algo
Si necesitas generar, usa DALL-E (OpenAI) o Imagen (Google, separado).
¿Qué sucede con mis datos?
Google usa tus prompts para mejorar modelos (default). Para privacidad:
- Usa data isolation (enterprises)
- O configure: No envíes datos sensibles (SSN, contraseñas, datos médicos)
- Para production, lee política privacidad completa
¿Puedo usar Gemini para producción?
Absolutamente. Muchas empresas españolas ya lo usan:
- Telefónica (análisis de datos)
- Glovo (optimización de rutas)
- Startups del Valle de Valdebernardo
Gemini es production-ready, SLA incluido.
¿Qué ocurre si excedo límites de rate?
Obtienes error 429 (Too Many Requests). Solución:
1import time2 3def llamar_con_reintentos(prompt, max_intentos=3):4 for intento in range(max_intentos):5 try:6 return model.generate_content(prompt)7 except Exception as e:8 if "429" in str(e):9 espera = 2 ** intento # 1s, 2s, 4s10 time.sleep(espera)11 else:12 raise
Exponential backoff automático.