Ir al contenido principal

Shadow AI: El Peligro Oculto en tu Empresa (y Como Controlarlo) [2026]

29 de marzo de 2026
14 min

El 77% de tus empleados ya usa IA sin tu permiso. Que es shadow AI, por que es peligroso y como controlarlo sin frenar la innovacion.

Javier Santos

Especialista en IA & Machine Learning

📧¿Te gusta este contenido?

Únete a 547+ profesionales que reciben tips de IA cada semana. Sin spam, cancela cuando quieras.

Shadow AI: El Peligro Oculto en tu Empresa (y Como Controlarlo) [2026]

TL;DR - Lo Esencial en 60 Segundos

  • El 77% de los empleados ya pega datos de la empresa en herramientas de IA como ChatGPT, Gemini o Claude sin autorizacion formal. El 82% usa sus cuentas personales para hacerlo.
  • Shadow AI es el uso de herramientas de inteligencia artificial no aprobadas por la empresa. Es el nuevo shadow IT, pero mas peligroso porque cada prompt puede contener datos confidenciales.
  • Samsung perdio codigo fuente propietario cuando tres ingenieros pegaron informacion confidencial en ChatGPT en menos de un mes. Resultado: prohibicion total de ChatGPT en toda la compania.
  • El coste medio de una brecha de datos con shadow AI es 670.000 USD mayor que una brecha convencional (IBM Cost of a Data Breach Report, 2025).
  • Prohibir la IA no funciona. El 69% de los directivos ya la usa por su cuenta. La solucion es ofrecer alternativas aprobadas, formar a los equipos y monitorizar con herramientas DLP.
  • 5 pasos concretos para controlarlo sin matar la innovacion: politica clara, herramientas aprobadas, DLP, formacion y auditorias trimestrales.


En Resumen

  1. Shadow AI es el uso de herramientas de IA no autorizadas por la empresa, y el 49% de los empleados ya lo hace de forma habitual. No es una cuestion de si esta pasando en tu empresa, sino de cuanto.
  2. Los datos que mas se filtran son codigo fuente, actas de reuniones, informes financieros y datos de clientes. El 32% de todo el movimiento no autorizado de datos ya pasa a traves de herramientas de IA generativa.
  3. El coste real no es solo la brecha: es la multa del RGPD (hasta el 4% de la facturacion global), la perdida de propiedad intelectual y el dano reputacional.
  4. Prohibir la IA es contraproducente. El 69% de los C-suite ya la usa sin politica formal. Si prohibes, tu equipo la usara igual pero en la clandestinidad, donde no puedes controlar nada.
  5. La solucion es un marco de gobernanza con tres pilares: herramientas aprobadas (Microsoft Copilot enterprise, Claude Team, Ollama local), monitorizacion DLP y formacion continua.
  6. Herramientas como Nightfall DLP, LayerX y Bifrost permiten detectar y bloquear el envio de datos confidenciales a herramientas de IA en tiempo real, sin afectar la productividad.
  7. Invertir 15-25 EUR/usuario/mes en herramientas de IA aprobadas cuesta 50 veces menos que una sola brecha de datos. El ROI no es discutible.


Imagina que manana descubres que el 77% de tu equipo lleva meses copiando datos de clientes, codigo propietario y estrategias internas en ChatGPT. Con sus cuentas personales. Sin cifrado empresarial. Sin politica de uso. Sin que nadie en seguridad lo supiera.

No es un escenario hipotetico. Segun el informe de CybSafe publicado el 15 de enero de 2026, eso es exactamente lo que esta pasando en la mayoria de empresas europeas ahora mismo. Y lo mas preocupante: el 69% de los directivos C-suite no solo lo saben, sino que ellos mismos lo hacen.

Le llaman shadow AI, y es el riesgo de ciberseguridad que mas rapido esta creciendo en 2026.

"Las organizaciones que no gobiernan el uso de IA generativa por parte de sus empleados estan asumiendo un nivel de riesgo comparable a no tener politica de proteccion de datos. La diferencia es que con la IA, la filtracion ocurre en un solo prompt." -- Gartner, Predicts 2026: AI Risk and Governance, publicado el 4 de diciembre de 2025.

Como consultor de IA que ayuda a empresas a implementar estas herramientas de forma segura, he visto desde pymes donde todo el departamento de marketing pegaba estrategias de pricing en ChatGPT Free hasta multinacionales donde ingenieros enviaban algoritmos propietarios a Claude sin saber que usaban sus cuentas personales. El patron siempre es el mismo: la empresa tarda en reaccionar y los empleados van mas rapido que la politica corporativa.

"El shadow AI no es un problema de empleados desobedientes. Es un fallo de la organizacion, que no ha proporcionado herramientas aprobadas a tiempo. Si das a tu equipo una alternativa segura, la mayoria la adopta encantada." -- Javier Santos Criado, consultor de IA y automatizacion empresarial.

Esta guia te explica que es shadow AI, cuanto cuesta de verdad, y como controlarlo con un plan de 5 pasos que puedes implementar esta misma semana. Actualizada a 29 de marzo de 2026.


Que es Shadow AI: Definicion Clara

Shadow AI es el uso de herramientas de inteligencia artificial que no han sido evaluadas, aprobadas ni monitorizadas por el departamento de TI o seguridad de la empresa. Es la version moderna del shadow IT, pero exponencialmente mas peligrosa porque cada interaccion con una IA puede contener datos sensibles.

Incluye situaciones como:

  • Un comercial que pega la base de datos de clientes en ChatGPT para generar emails personalizados.
  • Un programador que sube codigo propietario a Claude con su cuenta personal para resolver un bug.
  • Un analista financiero que copia el informe trimestral en Gemini para hacer un resumen ejecutivo.
  • Un abogado que pega un contrato confidencial en Perplexity para buscar clausulas problematicas.
  • Un responsable de RRHH que usa una IA gratuita para redactar evaluaciones de desempeno con datos reales de empleados.

La diferencia critica con el shadow IT tradicional (usar Dropbox personal, por ejemplo) es que los datos no solo se almacenan en un servicio externo: pueden usarse para entrenar modelos y aparecer en respuestas a otros usuarios. Un archivo en Dropbox personal es un riesgo de acceso. Un prompt con datos confidenciales en una IA gratuita es un riesgo de difusion.

AspectoShadow IT clasicoShadow AI
Ejemplo tipicoUsar Dropbox personal para archivos de trabajoPegar datos de clientes en ChatGPT Free
Tipo de riesgoAcceso no autorizado a archivosDifusion y entrenamiento con datos confidenciales
Velocidad de filtracionRequiere brecha de seguridadOcurre en cada prompt
DetectabilidadFirewalls y proxies detectan el traficoTrafico HTTPS normal, dificil de distinguir
Impacto regulatorioMedio (RGPD, LOPDGDD)Alto (RGPD + Ley de IA de la UE + propiedad intelectual)
ReversibilidadSe puede borrar el archivoUna vez enviado a la IA, no se puede recuperar

Las Cifras que Asustan: Shadow AI en Numeros

Estos no son datos teoricos. Son resultados de informes publicados entre septiembre de 2025 y marzo de 2026 por IBM, Gartner, Salesforce, CybSafe y LayerX.

DatoCifraFuente
Empleados que pegan datos de empresa en IA77%CybSafe, enero 2026
Empleados que usan cuentas personales para IA laboral82%CybSafe, enero 2026
Empleados que adoptaron IA sin aprobacion del empleador49%Salesforce State of IT, octubre 2025
Empleados que usan cuentas personales para IA de trabajo47%Salesforce, octubre 2025
Empleados que comparten datos confidenciales con IA38%Salesforce, octubre 2025
C-suite que usa IA sin politica formal (y lo ve bien)69%CybSafe, enero 2026
Sobrecoste de brecha con shadow AI vs brecha normal+670.000 USDIBM Cost of a Data Breach, 2025
Coste medio de una brecha de datos (global)4,45 millones USDIBM, 2025
Movimiento de datos no autorizado via herramientas GenAI32% (canal principal)LayerX, febrero 2026
Brechas atribuidas a shadow AI para 2027 (prediccion)40%Gartner Predicts, diciembre 2025
Empresas con estrategia avanzada de seguridad para IASolo el 6%IBM, 2025
Empresas con presupuesto dedicado a seguridad IASolo el 30%IBM, 2025

El dato mas preocupante es el ultimo: solo el 6% de las empresas tiene una estrategia avanzada de seguridad para IA. El otro 94% esta volando a ciegas mientras sus empleados envian datos confidenciales a servicios externos cada dia.


El Caso Samsung: Cuando Shadow AI Explota

En marzo y abril de 2023, Samsung Semiconductor experimento tres incidentes de filtracion de datos a traves de ChatGPT en menos de 20 dias. Es el caso mas documentado de shadow AI corporativo y merece analizarse en detalle porque ilustra exactamente como ocurre esto en la practica.

Incidente 1 (marzo 2023): Un ingeniero de Samsung pego codigo fuente propietario de un programa de medicion de equipos semiconductores en ChatGPT para que le ayudara a identificar un error. El codigo contenia propiedad intelectual critica de la division de semiconductores.

Incidente 2 (marzo 2023): Otro ingeniero envio codigo fuente de un programa interno de deteccion de defectos en equipos. Uso ChatGPT para optimizar el rendimiento del codigo. De nuevo, propiedad intelectual directa.

Incidente 3 (abril 2023): Un empleado copio las actas completas de una reunion interna en ChatGPT y le pidio que generara un resumen y puntos de accion. Las actas contenian decisiones estrategicas, nombres de proyectos internos y plazos confidenciales.

IncidenteFechaTipo de dato filtradoRiesgo
1Marzo 2023Codigo fuente (medicion equipos)Propiedad intelectual, ventaja competitiva
2Marzo 2023Codigo fuente (deteccion defectos)Propiedad intelectual, patentes
3Abril 2023Actas de reunion estrategicaEstrategia corporativa, roadmap

Resultado: Samsung prohibio completamente el uso de ChatGPT (y cualquier otra herramienta de IA generativa externa) en todos los dispositivos de la empresa. Limito los prompts a 1024 bytes para herramientas internas y anuncio que desarrollaria su propia IA corporativa.

La leccion no es que Samsung debiera haber prohibido antes. La leccion es que Samsung no tenia herramientas de IA aprobadas disponibles para sus ingenieros, asi que estos usaron la mejor opcion disponible: ChatGPT con sus cuentas personales. El shadow AI no nace de la malicia, nace de la necesidad.


Que Datos Filtran tus Empleados (y No lo Saben)

Segun los informes combinados de CybSafe, LayerX y Salesforce, estos son los tipos de datos que los empleados envian con mas frecuencia a herramientas de IA no autorizadas:

Tipo de dato% de empleados que lo envianRiesgo principalEjemplo real
Codigo fuente62%Perdida de propiedad intelectualPegar funciones en ChatGPT para debug
Actas de reuniones54%Filtracion de estrategia interna"Resume esta acta y saca action items"
Informes financieros41%Informacion privilegiada, insider trading"Analiza estos numeros del Q4"
Datos de clientes38%Violacion RGPD, multa hasta 4% facturacion"Genera emails personalizados para esta lista"
Documentos legales29%Secreto profesional, compliance"Revisa este contrato y busca riesgos"
Evaluaciones de RRHH23%Datos personales sensibles, RGPD"Reescribe esta evaluacion de rendimiento"
Datos medicos/sanitarios12%RGPD categorias especiales, LOPD"Resume este historial clinico"
Credenciales y API keys8%Acceso no autorizado a sistemasPegar .env o config files sin sanitizar

El problema no es que los empleados sean irresponsables. El 91% de los que usan shadow AI creen genuinamente que estan siendo mas productivos, y probablemente tienen razon. El problema es que nadie les ha explicado que datos pueden enviar y cuales no, ni les han dado herramientas aprobadas que sean igual de buenas.

Si te interesa entender exactamente que hace cada herramienta con los datos que recibe, he escrito una guia completa de privacidad de ChatGPT, Claude, Cursor y Copilot donde lo explico herramienta por herramienta.


5 Pasos para Controlar Shadow AI Sin Matar la Innovacion

Paso 1: Haz una Auditoria Real del Uso Actual de IA

Antes de escribir una politica, necesitas saber que esta pasando realmente. No asumas: mide.

Que hacer:

  • Despliega una herramienta de monitorizacion de trafico web (LayerX, Netskope o incluso un analisis basico de logs del proxy corporativo) para identificar que dominios de IA visitan tus empleados.
  • Envia una encuesta anonima preguntando: "Que herramientas de IA usas para tu trabajo? Con que frecuencia? Que tipo de datos envias?"
  • Revisa los registros de SSO y las aplicaciones OAuth conectadas a cuentas corporativas de Google/Microsoft.

Resultado esperado: Una lista de herramientas, frecuencia de uso, departamentos implicados y una estimacion del volumen de datos que estan saliendo.

Paso 2: Define una Politica de Uso de IA Clara y Realista

La politica no puede ser "no uses IA". Eso no funciona, como demuestra el dato del 69% de C-suite que ya la usa. La politica tiene que ser clara, especifica y facil de seguir.

Elementos minimos de una politica de uso de IA:

ElementoEjemplo
Herramientas aprobadasMicrosoft Copilot (plan Enterprise), Claude Team, Ollama local
Herramientas prohibidasCualquier IA gratuita con cuenta personal para datos de trabajo
Datos que NUNCA se envianCodigo fuente, datos de clientes, informes financieros, credenciales
Datos que se pueden enviarTextos genericos, borradores sin datos reales, preguntas tecnicas generales
Proceso de solicitudPara usar una nueva herramienta: ticket a TI con evaluacion de seguridad
ConsecuenciasAdvertencia formal -> formacion obligatoria -> medidas disciplinarias
RevisionCada 3 meses (la tecnologia cambia rapidamente)

Si necesitas una plantilla completa lista para adaptar, tengo una guia para crear una politica de uso de IA en tu empresa con el documento entero descargable.

Paso 3: Proporciona Herramientas Aprobadas que Sean Buenas

Este es el paso mas importante y el que mas empresas se saltan. Si no das alternativas aprobadas, tus empleados seguiran usando ChatGPT Free con sus cuentas personales. La prohibicion sin alternativa es una invitacion al shadow AI.

Opciones recomendadas segun caso de uso:

NecesidadHerramienta aprobada recomendadaCostePor que
Chat IA general (marketing, ventas, RRHH)Microsoft Copilot Enterprise o Claude Team25-30 USD/usuario/mesNo entrena con datos, SSO, audit logs
Asistente de codigoGitHub Copilot Business19 USD/usuario/mesNo retiene codigo, cumple SOC 2
IA con privacidad total (datos sensibles)Ollama en servidor localCoste de hardware (~500 EUR una vez)Datos nunca salen de tu red
Automatizacion de flujosn8n con modelos localesGratuito (self-hosted)Control total de datos y procesos
Busqueda y resumen de documentosMicrosoft Copilot + SharePointIncluido en licencia M365 E5Los datos no salen del tenant

Si te interesa montar un entorno de IA completamente local para los casos mas sensibles, he escrito una guia completa de Ollama para ejecutar modelos de IA en local. Para automatizar flujos de trabajo con IA sin depender de servicios externos, mira la guia de n8n para principiantes.

Paso 4: Implementa Herramientas de Monitorizacion y DLP

Las politicas sin enforcement son papel mojado. Necesitas herramientas que detecten y bloqueen el envio de datos confidenciales a IAs no autorizadas en tiempo real.

Paso 5: Forma a tu Equipo (y a los Directivos)

El 69% de los C-suite usa shadow AI. Si solo formas a los empleados rasos, estas dejando fuera al grupo que mas riesgo genera (porque tiene acceso a los datos mas sensibles).

Programa de formacion minimo:

  • Sesion inicial (2 horas): Que es shadow AI, riesgos reales (caso Samsung), politica de la empresa, herramientas aprobadas, que datos se pueden y no se pueden enviar.
  • Sesion practica (1 hora): Como usar las herramientas aprobadas para los casos de uso mas comunes del departamento.
  • Actualizacion trimestral (30 minutos): Nuevas herramientas aprobadas, incidentes del sector, cambios en la politica.

Si quieres ampliar los conocimientos de tu equipo sobre IA de forma estructurada, aqui tienes un ranking de los mejores cursos de IA gratuitos en espanol que puedes compartir internamente.


Herramientas de Control y Deteccion de Shadow AI: Comparativa

HerramientaTipoQue hacePrecio orientativoIdeal para
Nightfall DLPDLP nativo en la nubeDetecta y bloquea datos sensibles (PII, credenciales, codigo) enviados a ChatGPT, Claude, Gemini y otrosDesde 5 USD/usuario/mesEmpresas medianas y grandes que necesitan DLP especifico para IA
LayerXSeguridad basada en navegadorMonitoriza todas las interacciones del navegador con herramientas de IA. Detecta shadow AI en tiempo realPersonalizado (demo gratuita)Empresas que quieren visibilidad total sin instalar agentes en endpoints
CloudEagle.aiGobernanza SaaS + IADescubre todas las aplicaciones de IA usadas en la organizacion, gestiona licencias y complianceDesde 3 USD/usuario/mesEmpresas que necesitan inventario completo de herramientas IA
BifrostGateway de gobernanza IAProxy centralizado que enruta todas las llamadas a IA a traves de un punto unico con politicas de filtradoPersonalizadoEmpresas con equipos de desarrollo que usan APIs de IA
Microsoft PurviewDLP empresarialExtension de DLP de Microsoft 365 para detectar datos sensibles en prompts de IAIncluido en M365 E5Empresas ya en ecosistema Microsoft
NetskopeCASB + DLPDetecta uso de aplicaciones de IA no autorizadas y aplica politicas de accesoDesde 8 USD/usuario/mesEmpresas grandes con infraestructura CASB existente

El ROI de Controlar Shadow AI: Los Numeros No Mienten

Muchos directivos ven la gobernanza de IA como un coste. Vamos a hacer las cuentas para que veas que es una de las inversiones con mejor retorno que puedes hacer en seguridad.

Escenario: empresa de 200 empleados

ConceptoCoste
Microsoft Copilot Enterprise (200 usuarios x 30 USD/mes x 12 meses)72.000 USD/ano
Nightfall DLP (200 usuarios x 5 USD/mes x 12 meses)12.000 USD/ano
Formacion inicial + trimestrales (externo)5.000 USD/ano
Tiempo interno de politica y gestion8.000 USD/ano
Total inversion anual97.000 USD/ano
ConceptoCoste evitado
Coste medio brecha de datos (IBM 2025)4.450.000 USD
Sobrecoste por shadow AI (IBM 2025)+670.000 USD
Coste potencial de una brecha con shadow AI5.120.000 USD
Multa RGPD (4% facturacion, empresa 50M EUR)Hasta 2.000.000 EUR
Perdida de propiedad intelectualIncalculable
Ratio coste/beneficio: Inviertes 97.000 USD para evitar un riesgo de mas de 5 millones. Eso es un ROI potencial de 52:1. Incluso si solo reduces la probabilidad de brecha un 10%, la inversion se paga sola varias veces.


3 Errores Comunes al Gestionar Shadow AI (y Como Evitarlos)

Error 1: Prohibir Toda la IA

Por que es un error: El 69% de tus directivos ya la usa. Si la prohibes, solo consigues que todo el mundo la use en secreto, sin ninguna visibilidad ni control. Ademas, tus competidores que si la adoptan ganaran productividad y tu perderas talento (los profesionales quieren usar IA).

Que hacer en su lugar: Aprueba 2-3 herramientas con planes enterprise, definir que datos se pueden enviar y forma a tu equipo.

Error 2: Confiar en que los Empleados Leean la Politica

Por que es un error: El 94% de los empleados no lee los documentos de politica interna completos. Una politica de 30 paginas que se envia por email es invisible.

Que hacer en su lugar: Resume la politica en una tarjeta de una sola pagina con tres columnas: "Puedes hacer", "No puedes hacer", "Pregunta antes de hacer". Ponla en el onboarding, en la intranet y en Slack/Teams como mensaje fijado. Complementa con formacion presencial.

Error 3: No Incluir a los Directivos

Por que es un error: Los ejecutivos C-suite son los usuarios mas frecuentes de shadow AI (69%) y los que manejan datos mas sensibles (estrategia, finanzas, M&A, RRHH de alto nivel). Si la politica no les aplica a ellos, es papel mojado.

Que hacer en su lugar: Formacion especifica para directivos con ejemplos adaptados a su realidad. Asegurate de que el CEO y el CFO estan en la primera sesion. Si ellos lo toman en serio, el resto de la empresa lo hara.


Preguntas Frecuentes sobre Shadow AI en Empresas

Que es shadow AI exactamente?

Shadow AI es el uso de herramientas de inteligencia artificial que no han sido aprobadas, evaluadas ni monitorizadas por el departamento de TI o seguridad de la empresa. Incluye desde usar ChatGPT Free con una cuenta personal para tareas de trabajo hasta instalar plugins de IA en el navegador sin autorizacion. La diferencia con el shadow IT clasico es que cada interaccion con una IA puede contener datos sensibles que se envian a servidores externos.

Es ilegal que mis empleados usen ChatGPT en el trabajo?

No es ilegal per se, pero puede generar infracciones legales graves. Si un empleado envia datos personales de clientes a ChatGPT sin el consentimiento del titular y sin evaluacion de impacto, la empresa esta infringiendo el RGPD. La responsabilidad recae en la empresa como responsable del tratamiento, no en el empleado individual. Por eso necesitas una politica y herramientas aprobadas.

Cuanto cuesta una brecha de datos por shadow AI?

El coste medio de una brecha de datos en 2025 fue de 4,45 millones USD (IBM). Cuando la brecha involucra shadow AI o shadow IT, el sobrecoste es de 670.000 USD adicionales. En la Union Europea, hay que sumar las posibles multas del RGPD (hasta el 4% de la facturacion global o 20 millones de euros, lo que sea mayor). El caso Samsung no genero multa publica, pero el dano reputacional y la perdida de propiedad intelectual fueron significativos.

Puede mi empresa ver lo que escribo en ChatGPT?

Depende de como estes usando ChatGPT. Si usas tu cuenta personal, la empresa no tiene acceso a tus conversaciones (pero tampoco tiene control sobre los datos que envias). Si usas ChatGPT Team o Enterprise con SSO corporativo, la empresa puede tener acceso a audit logs que registran quien uso la herramienta, cuando y con que volumen, aunque generalmente no al contenido exacto de los prompts. Con herramientas DLP como Nightfall, la empresa puede detectar y bloquear el envio de datos sensibles antes de que lleguen a la IA.

Que herramientas de IA son seguras para mi empresa?

Ninguna herramienta es 100% segura por defecto. Lo que las hace seguras es la configuracion correcta y el plan adecuado. Como regla general: los planes Enterprise o Team de ChatGPT, Claude y Copilot son razonablemente seguros para datos corporativos normales. Para datos altamente sensibles (sanitarios, financieros regulados, secretos industriales), la opcion mas segura es ejecutar modelos de IA en local con Ollama donde los datos nunca salen de tu infraestructura.

Como detecto si mis empleados estan usando shadow AI?

Tres metodos combinados: (1) Herramientas DLP como Nightfall o Microsoft Purview que detectan datos sensibles en trafico web. (2) Monitorizacion de navegador con LayerX que identifica interacciones con dominios de IA. (3) Encuestas anonimas periodicas, que sorprendentemente dan resultados muy honestos cuando los empleados saben que no habra represalias. El enfoque mas efectivo combina los tres.

Deberia prohibir ChatGPT en mi empresa?

No. Prohibir ChatGPT (o cualquier IA) sin ofrecer alternativas aprobadas es contraproducente. El 49% de los empleados ya ha adoptado herramientas de IA sin permiso, y una prohibicion no va a cambiar eso. En su lugar, aprueba herramientas con planes empresariales, define una politica clara de uso, implementa DLP y forma a tu equipo. Samsung prohibio ChatGPT y tuvo que desarrollar su propia IA interna a un coste enorme. La mayoria de empresas no pueden permitirse eso.

Cada cuanto debo revisar la politica de IA de mi empresa?

Minimo cada 3 meses. El ecosistema de IA cambia a una velocidad sin precedentes: nuevos modelos, nuevas capacidades, nuevos riesgos. Una politica escrita en enero de 2026 ya esta desactualizada en abril. Programa revisiones trimestrales con los equipos de TI, seguridad, legal y RRHH. Actualiza la lista de herramientas aprobadas, revisa los incidentes del trimestre y ajusta la formacion.


Cronologia: Shadow AI de Teoria a Emergencia Corporativa

FechaEvento
Noviembre 2022Lanzamiento de ChatGPT. Los empleados empiezan a usarlo para tareas laborales sin autorizacion formal.
Marzo-Abril 2023Tres incidentes de filtracion de datos en Samsung via ChatGPT. Samsung prohibe el uso de IA generativa externa.
Junio 2023JP Morgan, Goldman Sachs, Citi y Deutsche Bank restringen o prohiben ChatGPT internamente.
Diciembre 2025Gartner predice que el 40% de las brechas de datos en 2027 seran atribuidas a shadow AI.
Enero 2026CybSafe publica que el 77% de empleados pegan datos corporativos en herramientas de IA.
Febrero 2026LayerX confirma que el 32% de los movimientos no autorizados de datos ya pasan por herramientas GenAI (canal principal).
Marzo 2026Solo el 6% de las empresas tiene una estrategia avanzada de seguridad para IA (IBM).

Servicios de Consultoria: Te Ayudo a Controlar Shadow AI

Si quieres que audite el uso de IA en tu empresa y te ayude a crear una politica que funcione, escribeme a javier@javadex.es. Diagnostico inicial gratuito.

Ofrezco formaciones de 2 horas para equipos sobre uso seguro de IA. Contacta en javier@javadex.es.

Si tu empresa quiere desplegarse herramientas de IA internas y necesita un VPS donde ejecutar modelos como Ollama o n8n sin depender de proveedores externos, yo uso Hostinger para mis propios despliegues. Su VPS KVM 1 a 4,99 EUR/mes da para ejecutar modelos ligeros como Phi-3 o Mistral 7B, y si necesitas mas potencia para modelos mas grandes, el VPS KVM 4 a 14,99 EUR/mes te da margen de sobra con 8 GB de RAM y 4 vCPU.


Fuentes y Referencias

  • IBM. Cost of a Data Breach Report 2025. Publicado en julio de 2025.
  • Gartner. Predicts 2026: AI Risk and Governance. Publicado el 4 de diciembre de 2025.
  • CybSafe. Attitudes and Behaviours Around AI in the Workplace. Publicado el 15 de enero de 2026.
  • Salesforce. State of IT Report 2025. Publicado en octubre de 2025.
  • LayerX. Enterprise Browser Security Report 2026. Publicado en febrero de 2026.
  • Samsung. Comunicado interno filtrado a Bloomberg y The Economist, abril de 2023.
  • AEPD. Guia sobre el uso de la inteligencia artificial y el RGPD. Actualizada en diciembre de 2025.
  • Reglamento (UE) 2024/1689 del Parlamento Europeo (Ley de IA de la UE). En vigor desde el 2 de febrero de 2025.

Formación y consultoría en IA para empresas

Formo a equipos técnicos y de negocio para adoptar Claude Code, programación agéntica e IA aplicada con resultados desde la primera semana.

  • Claude Code para developers senior (presencial)
  • IA para perfiles de negocio (presencial)
  • 100% personalizado al stack de tu equipo
  • Sesión de diagnóstico gratuita (30 min)
📬

¿Te ha gustado? Hay más cada semana

Únete a "IA Sin Humo" — la newsletter donde comparto lo que realmente funciona en inteligencia artificial. Sin teoría innecesaria, sin postureo.

📚

1 Tutorial

Paso a paso, práctico

🛠️

3 Herramientas

Probadas y útiles

💡

0 Bullshit

Solo lo que importa

+547 suscriptores • Cada martes • Cancela cuando quieras

Javier Santos - Especialista en IA & Machine Learning

Javier Santos

Consultor de IA para empresas. Comparto contenido sobre inteligencia artificial, automatización y desarrollo cada semana.