Shadow AI: El Peligro Oculto en tu Empresa (y Como Controlarlo) [2026]
TL;DR - Lo Esencial en 60 Segundos
- El 77% de los empleados ya pega datos de la empresa en herramientas de IA como ChatGPT, Gemini o Claude sin autorizacion formal. El 82% usa sus cuentas personales para hacerlo.
- Shadow AI es el uso de herramientas de inteligencia artificial no aprobadas por la empresa. Es el nuevo shadow IT, pero mas peligroso porque cada prompt puede contener datos confidenciales.
- Samsung perdio codigo fuente propietario cuando tres ingenieros pegaron informacion confidencial en ChatGPT en menos de un mes. Resultado: prohibicion total de ChatGPT en toda la compania.
- El coste medio de una brecha de datos con shadow AI es 670.000 USD mayor que una brecha convencional (IBM Cost of a Data Breach Report, 2025).
- Prohibir la IA no funciona. El 69% de los directivos ya la usa por su cuenta. La solucion es ofrecer alternativas aprobadas, formar a los equipos y monitorizar con herramientas DLP.
- 5 pasos concretos para controlarlo sin matar la innovacion: politica clara, herramientas aprobadas, DLP, formacion y auditorias trimestrales.
En Resumen
- Shadow AI es el uso de herramientas de IA no autorizadas por la empresa, y el 49% de los empleados ya lo hace de forma habitual. No es una cuestion de si esta pasando en tu empresa, sino de cuanto.
- Los datos que mas se filtran son codigo fuente, actas de reuniones, informes financieros y datos de clientes. El 32% de todo el movimiento no autorizado de datos ya pasa a traves de herramientas de IA generativa.
- El coste real no es solo la brecha: es la multa del RGPD (hasta el 4% de la facturacion global), la perdida de propiedad intelectual y el dano reputacional.
- Prohibir la IA es contraproducente. El 69% de los C-suite ya la usa sin politica formal. Si prohibes, tu equipo la usara igual pero en la clandestinidad, donde no puedes controlar nada.
- La solucion es un marco de gobernanza con tres pilares: herramientas aprobadas (Microsoft Copilot enterprise, Claude Team, Ollama local), monitorizacion DLP y formacion continua.
- Herramientas como Nightfall DLP, LayerX y Bifrost permiten detectar y bloquear el envio de datos confidenciales a herramientas de IA en tiempo real, sin afectar la productividad.
- Invertir 15-25 EUR/usuario/mes en herramientas de IA aprobadas cuesta 50 veces menos que una sola brecha de datos. El ROI no es discutible.
Imagina que manana descubres que el 77% de tu equipo lleva meses copiando datos de clientes, codigo propietario y estrategias internas en ChatGPT. Con sus cuentas personales. Sin cifrado empresarial. Sin politica de uso. Sin que nadie en seguridad lo supiera.
No es un escenario hipotetico. Segun el informe de CybSafe publicado el 15 de enero de 2026, eso es exactamente lo que esta pasando en la mayoria de empresas europeas ahora mismo. Y lo mas preocupante: el 69% de los directivos C-suite no solo lo saben, sino que ellos mismos lo hacen.
Le llaman shadow AI, y es el riesgo de ciberseguridad que mas rapido esta creciendo en 2026.
"Las organizaciones que no gobiernan el uso de IA generativa por parte de sus empleados estan asumiendo un nivel de riesgo comparable a no tener politica de proteccion de datos. La diferencia es que con la IA, la filtracion ocurre en un solo prompt." -- Gartner, Predicts 2026: AI Risk and Governance, publicado el 4 de diciembre de 2025.
Como consultor de IA que ayuda a empresas a implementar estas herramientas de forma segura, he visto desde pymes donde todo el departamento de marketing pegaba estrategias de pricing en ChatGPT Free hasta multinacionales donde ingenieros enviaban algoritmos propietarios a Claude sin saber que usaban sus cuentas personales. El patron siempre es el mismo: la empresa tarda en reaccionar y los empleados van mas rapido que la politica corporativa.
"El shadow AI no es un problema de empleados desobedientes. Es un fallo de la organizacion, que no ha proporcionado herramientas aprobadas a tiempo. Si das a tu equipo una alternativa segura, la mayoria la adopta encantada." -- Javier Santos Criado, consultor de IA y automatizacion empresarial.
Esta guia te explica que es shadow AI, cuanto cuesta de verdad, y como controlarlo con un plan de 5 pasos que puedes implementar esta misma semana. Actualizada a 29 de marzo de 2026.
Que es Shadow AI: Definicion Clara
Shadow AI es el uso de herramientas de inteligencia artificial que no han sido evaluadas, aprobadas ni monitorizadas por el departamento de TI o seguridad de la empresa. Es la version moderna del shadow IT, pero exponencialmente mas peligrosa porque cada interaccion con una IA puede contener datos sensibles.
Incluye situaciones como:
- Un comercial que pega la base de datos de clientes en ChatGPT para generar emails personalizados.
- Un programador que sube codigo propietario a Claude con su cuenta personal para resolver un bug.
- Un analista financiero que copia el informe trimestral en Gemini para hacer un resumen ejecutivo.
- Un abogado que pega un contrato confidencial en Perplexity para buscar clausulas problematicas.
- Un responsable de RRHH que usa una IA gratuita para redactar evaluaciones de desempeno con datos reales de empleados.
La diferencia critica con el shadow IT tradicional (usar Dropbox personal, por ejemplo) es que los datos no solo se almacenan en un servicio externo: pueden usarse para entrenar modelos y aparecer en respuestas a otros usuarios. Un archivo en Dropbox personal es un riesgo de acceso. Un prompt con datos confidenciales en una IA gratuita es un riesgo de difusion.
| Aspecto | Shadow IT clasico | Shadow AI |
|---|---|---|
| Ejemplo tipico | Usar Dropbox personal para archivos de trabajo | Pegar datos de clientes en ChatGPT Free |
| Tipo de riesgo | Acceso no autorizado a archivos | Difusion y entrenamiento con datos confidenciales |
| Velocidad de filtracion | Requiere brecha de seguridad | Ocurre en cada prompt |
| Detectabilidad | Firewalls y proxies detectan el trafico | Trafico HTTPS normal, dificil de distinguir |
| Impacto regulatorio | Medio (RGPD, LOPDGDD) | Alto (RGPD + Ley de IA de la UE + propiedad intelectual) |
| Reversibilidad | Se puede borrar el archivo | Una vez enviado a la IA, no se puede recuperar |
Las Cifras que Asustan: Shadow AI en Numeros
Estos no son datos teoricos. Son resultados de informes publicados entre septiembre de 2025 y marzo de 2026 por IBM, Gartner, Salesforce, CybSafe y LayerX.
| Dato | Cifra | Fuente |
|---|---|---|
| Empleados que pegan datos de empresa en IA | 77% | CybSafe, enero 2026 |
| Empleados que usan cuentas personales para IA laboral | 82% | CybSafe, enero 2026 |
| Empleados que adoptaron IA sin aprobacion del empleador | 49% | Salesforce State of IT, octubre 2025 |
| Empleados que usan cuentas personales para IA de trabajo | 47% | Salesforce, octubre 2025 |
| Empleados que comparten datos confidenciales con IA | 38% | Salesforce, octubre 2025 |
| C-suite que usa IA sin politica formal (y lo ve bien) | 69% | CybSafe, enero 2026 |
| Sobrecoste de brecha con shadow AI vs brecha normal | +670.000 USD | IBM Cost of a Data Breach, 2025 |
| Coste medio de una brecha de datos (global) | 4,45 millones USD | IBM, 2025 |
| Movimiento de datos no autorizado via herramientas GenAI | 32% (canal principal) | LayerX, febrero 2026 |
| Brechas atribuidas a shadow AI para 2027 (prediccion) | 40% | Gartner Predicts, diciembre 2025 |
| Empresas con estrategia avanzada de seguridad para IA | Solo el 6% | IBM, 2025 |
| Empresas con presupuesto dedicado a seguridad IA | Solo el 30% | IBM, 2025 |
El dato mas preocupante es el ultimo: solo el 6% de las empresas tiene una estrategia avanzada de seguridad para IA. El otro 94% esta volando a ciegas mientras sus empleados envian datos confidenciales a servicios externos cada dia.
El Caso Samsung: Cuando Shadow AI Explota
En marzo y abril de 2023, Samsung Semiconductor experimento tres incidentes de filtracion de datos a traves de ChatGPT en menos de 20 dias. Es el caso mas documentado de shadow AI corporativo y merece analizarse en detalle porque ilustra exactamente como ocurre esto en la practica.
Incidente 1 (marzo 2023): Un ingeniero de Samsung pego codigo fuente propietario de un programa de medicion de equipos semiconductores en ChatGPT para que le ayudara a identificar un error. El codigo contenia propiedad intelectual critica de la division de semiconductores.
Incidente 2 (marzo 2023): Otro ingeniero envio codigo fuente de un programa interno de deteccion de defectos en equipos. Uso ChatGPT para optimizar el rendimiento del codigo. De nuevo, propiedad intelectual directa.
Incidente 3 (abril 2023): Un empleado copio las actas completas de una reunion interna en ChatGPT y le pidio que generara un resumen y puntos de accion. Las actas contenian decisiones estrategicas, nombres de proyectos internos y plazos confidenciales.
| Incidente | Fecha | Tipo de dato filtrado | Riesgo |
|---|---|---|---|
| 1 | Marzo 2023 | Codigo fuente (medicion equipos) | Propiedad intelectual, ventaja competitiva |
| 2 | Marzo 2023 | Codigo fuente (deteccion defectos) | Propiedad intelectual, patentes |
| 3 | Abril 2023 | Actas de reunion estrategica | Estrategia corporativa, roadmap |
La leccion no es que Samsung debiera haber prohibido antes. La leccion es que Samsung no tenia herramientas de IA aprobadas disponibles para sus ingenieros, asi que estos usaron la mejor opcion disponible: ChatGPT con sus cuentas personales. El shadow AI no nace de la malicia, nace de la necesidad.
Que Datos Filtran tus Empleados (y No lo Saben)
Segun los informes combinados de CybSafe, LayerX y Salesforce, estos son los tipos de datos que los empleados envian con mas frecuencia a herramientas de IA no autorizadas:
| Tipo de dato | % de empleados que lo envian | Riesgo principal | Ejemplo real |
|---|---|---|---|
| Codigo fuente | 62% | Perdida de propiedad intelectual | Pegar funciones en ChatGPT para debug |
| Actas de reuniones | 54% | Filtracion de estrategia interna | "Resume esta acta y saca action items" |
| Informes financieros | 41% | Informacion privilegiada, insider trading | "Analiza estos numeros del Q4" |
| Datos de clientes | 38% | Violacion RGPD, multa hasta 4% facturacion | "Genera emails personalizados para esta lista" |
| Documentos legales | 29% | Secreto profesional, compliance | "Revisa este contrato y busca riesgos" |
| Evaluaciones de RRHH | 23% | Datos personales sensibles, RGPD | "Reescribe esta evaluacion de rendimiento" |
| Datos medicos/sanitarios | 12% | RGPD categorias especiales, LOPD | "Resume este historial clinico" |
| Credenciales y API keys | 8% | Acceso no autorizado a sistemas | Pegar .env o config files sin sanitizar |
El problema no es que los empleados sean irresponsables. El 91% de los que usan shadow AI creen genuinamente que estan siendo mas productivos, y probablemente tienen razon. El problema es que nadie les ha explicado que datos pueden enviar y cuales no, ni les han dado herramientas aprobadas que sean igual de buenas.
Si te interesa entender exactamente que hace cada herramienta con los datos que recibe, he escrito una guia completa de privacidad de ChatGPT, Claude, Cursor y Copilot donde lo explico herramienta por herramienta.
5 Pasos para Controlar Shadow AI Sin Matar la Innovacion
Paso 1: Haz una Auditoria Real del Uso Actual de IA
Antes de escribir una politica, necesitas saber que esta pasando realmente. No asumas: mide.
Que hacer:
- Despliega una herramienta de monitorizacion de trafico web (LayerX, Netskope o incluso un analisis basico de logs del proxy corporativo) para identificar que dominios de IA visitan tus empleados.
- Envia una encuesta anonima preguntando: "Que herramientas de IA usas para tu trabajo? Con que frecuencia? Que tipo de datos envias?"
- Revisa los registros de SSO y las aplicaciones OAuth conectadas a cuentas corporativas de Google/Microsoft.
Resultado esperado: Una lista de herramientas, frecuencia de uso, departamentos implicados y una estimacion del volumen de datos que estan saliendo.
Paso 2: Define una Politica de Uso de IA Clara y Realista
La politica no puede ser "no uses IA". Eso no funciona, como demuestra el dato del 69% de C-suite que ya la usa. La politica tiene que ser clara, especifica y facil de seguir.
Elementos minimos de una politica de uso de IA:
| Elemento | Ejemplo |
|---|---|
| Herramientas aprobadas | Microsoft Copilot (plan Enterprise), Claude Team, Ollama local |
| Herramientas prohibidas | Cualquier IA gratuita con cuenta personal para datos de trabajo |
| Datos que NUNCA se envian | Codigo fuente, datos de clientes, informes financieros, credenciales |
| Datos que se pueden enviar | Textos genericos, borradores sin datos reales, preguntas tecnicas generales |
| Proceso de solicitud | Para usar una nueva herramienta: ticket a TI con evaluacion de seguridad |
| Consecuencias | Advertencia formal -> formacion obligatoria -> medidas disciplinarias |
| Revision | Cada 3 meses (la tecnologia cambia rapidamente) |
Si necesitas una plantilla completa lista para adaptar, tengo una guia para crear una politica de uso de IA en tu empresa con el documento entero descargable.
Paso 3: Proporciona Herramientas Aprobadas que Sean Buenas
Este es el paso mas importante y el que mas empresas se saltan. Si no das alternativas aprobadas, tus empleados seguiran usando ChatGPT Free con sus cuentas personales. La prohibicion sin alternativa es una invitacion al shadow AI.
Opciones recomendadas segun caso de uso:
| Necesidad | Herramienta aprobada recomendada | Coste | Por que |
|---|---|---|---|
| Chat IA general (marketing, ventas, RRHH) | Microsoft Copilot Enterprise o Claude Team | 25-30 USD/usuario/mes | No entrena con datos, SSO, audit logs |
| Asistente de codigo | GitHub Copilot Business | 19 USD/usuario/mes | No retiene codigo, cumple SOC 2 |
| IA con privacidad total (datos sensibles) | Ollama en servidor local | Coste de hardware (~500 EUR una vez) | Datos nunca salen de tu red |
| Automatizacion de flujos | n8n con modelos locales | Gratuito (self-hosted) | Control total de datos y procesos |
| Busqueda y resumen de documentos | Microsoft Copilot + SharePoint | Incluido en licencia M365 E5 | Los datos no salen del tenant |
Si te interesa montar un entorno de IA completamente local para los casos mas sensibles, he escrito una guia completa de Ollama para ejecutar modelos de IA en local. Para automatizar flujos de trabajo con IA sin depender de servicios externos, mira la guia de n8n para principiantes.
Paso 4: Implementa Herramientas de Monitorizacion y DLP
Las politicas sin enforcement son papel mojado. Necesitas herramientas que detecten y bloqueen el envio de datos confidenciales a IAs no autorizadas en tiempo real.
Paso 5: Forma a tu Equipo (y a los Directivos)
El 69% de los C-suite usa shadow AI. Si solo formas a los empleados rasos, estas dejando fuera al grupo que mas riesgo genera (porque tiene acceso a los datos mas sensibles).
Programa de formacion minimo:
- Sesion inicial (2 horas): Que es shadow AI, riesgos reales (caso Samsung), politica de la empresa, herramientas aprobadas, que datos se pueden y no se pueden enviar.
- Sesion practica (1 hora): Como usar las herramientas aprobadas para los casos de uso mas comunes del departamento.
- Actualizacion trimestral (30 minutos): Nuevas herramientas aprobadas, incidentes del sector, cambios en la politica.
Si quieres ampliar los conocimientos de tu equipo sobre IA de forma estructurada, aqui tienes un ranking de los mejores cursos de IA gratuitos en espanol que puedes compartir internamente.
Herramientas de Control y Deteccion de Shadow AI: Comparativa
| Herramienta | Tipo | Que hace | Precio orientativo | Ideal para |
|---|---|---|---|---|
| Nightfall DLP | DLP nativo en la nube | Detecta y bloquea datos sensibles (PII, credenciales, codigo) enviados a ChatGPT, Claude, Gemini y otros | Desde 5 USD/usuario/mes | Empresas medianas y grandes que necesitan DLP especifico para IA |
| LayerX | Seguridad basada en navegador | Monitoriza todas las interacciones del navegador con herramientas de IA. Detecta shadow AI en tiempo real | Personalizado (demo gratuita) | Empresas que quieren visibilidad total sin instalar agentes en endpoints |
| CloudEagle.ai | Gobernanza SaaS + IA | Descubre todas las aplicaciones de IA usadas en la organizacion, gestiona licencias y compliance | Desde 3 USD/usuario/mes | Empresas que necesitan inventario completo de herramientas IA |
| Bifrost | Gateway de gobernanza IA | Proxy centralizado que enruta todas las llamadas a IA a traves de un punto unico con politicas de filtrado | Personalizado | Empresas con equipos de desarrollo que usan APIs de IA |
| Microsoft Purview | DLP empresarial | Extension de DLP de Microsoft 365 para detectar datos sensibles en prompts de IA | Incluido en M365 E5 | Empresas ya en ecosistema Microsoft |
| Netskope | CASB + DLP | Detecta uso de aplicaciones de IA no autorizadas y aplica politicas de acceso | Desde 8 USD/usuario/mes | Empresas grandes con infraestructura CASB existente |
El ROI de Controlar Shadow AI: Los Numeros No Mienten
Muchos directivos ven la gobernanza de IA como un coste. Vamos a hacer las cuentas para que veas que es una de las inversiones con mejor retorno que puedes hacer en seguridad.
Escenario: empresa de 200 empleados
| Concepto | Coste |
|---|---|
| Microsoft Copilot Enterprise (200 usuarios x 30 USD/mes x 12 meses) | 72.000 USD/ano |
| Nightfall DLP (200 usuarios x 5 USD/mes x 12 meses) | 12.000 USD/ano |
| Formacion inicial + trimestrales (externo) | 5.000 USD/ano |
| Tiempo interno de politica y gestion | 8.000 USD/ano |
| Total inversion anual | 97.000 USD/ano |
| Concepto | Coste evitado |
|---|---|
| Coste medio brecha de datos (IBM 2025) | 4.450.000 USD |
| Sobrecoste por shadow AI (IBM 2025) | +670.000 USD |
| Coste potencial de una brecha con shadow AI | 5.120.000 USD |
| Multa RGPD (4% facturacion, empresa 50M EUR) | Hasta 2.000.000 EUR |
| Perdida de propiedad intelectual | Incalculable |
3 Errores Comunes al Gestionar Shadow AI (y Como Evitarlos)
Error 1: Prohibir Toda la IA
Por que es un error: El 69% de tus directivos ya la usa. Si la prohibes, solo consigues que todo el mundo la use en secreto, sin ninguna visibilidad ni control. Ademas, tus competidores que si la adoptan ganaran productividad y tu perderas talento (los profesionales quieren usar IA).
Que hacer en su lugar: Aprueba 2-3 herramientas con planes enterprise, definir que datos se pueden enviar y forma a tu equipo.
Error 2: Confiar en que los Empleados Leean la Politica
Por que es un error: El 94% de los empleados no lee los documentos de politica interna completos. Una politica de 30 paginas que se envia por email es invisible.
Que hacer en su lugar: Resume la politica en una tarjeta de una sola pagina con tres columnas: "Puedes hacer", "No puedes hacer", "Pregunta antes de hacer". Ponla en el onboarding, en la intranet y en Slack/Teams como mensaje fijado. Complementa con formacion presencial.
Error 3: No Incluir a los Directivos
Por que es un error: Los ejecutivos C-suite son los usuarios mas frecuentes de shadow AI (69%) y los que manejan datos mas sensibles (estrategia, finanzas, M&A, RRHH de alto nivel). Si la politica no les aplica a ellos, es papel mojado.
Que hacer en su lugar: Formacion especifica para directivos con ejemplos adaptados a su realidad. Asegurate de que el CEO y el CFO estan en la primera sesion. Si ellos lo toman en serio, el resto de la empresa lo hara.
Preguntas Frecuentes sobre Shadow AI en Empresas
Que es shadow AI exactamente?
Shadow AI es el uso de herramientas de inteligencia artificial que no han sido aprobadas, evaluadas ni monitorizadas por el departamento de TI o seguridad de la empresa. Incluye desde usar ChatGPT Free con una cuenta personal para tareas de trabajo hasta instalar plugins de IA en el navegador sin autorizacion. La diferencia con el shadow IT clasico es que cada interaccion con una IA puede contener datos sensibles que se envian a servidores externos.
Es ilegal que mis empleados usen ChatGPT en el trabajo?
No es ilegal per se, pero puede generar infracciones legales graves. Si un empleado envia datos personales de clientes a ChatGPT sin el consentimiento del titular y sin evaluacion de impacto, la empresa esta infringiendo el RGPD. La responsabilidad recae en la empresa como responsable del tratamiento, no en el empleado individual. Por eso necesitas una politica y herramientas aprobadas.
Cuanto cuesta una brecha de datos por shadow AI?
El coste medio de una brecha de datos en 2025 fue de 4,45 millones USD (IBM). Cuando la brecha involucra shadow AI o shadow IT, el sobrecoste es de 670.000 USD adicionales. En la Union Europea, hay que sumar las posibles multas del RGPD (hasta el 4% de la facturacion global o 20 millones de euros, lo que sea mayor). El caso Samsung no genero multa publica, pero el dano reputacional y la perdida de propiedad intelectual fueron significativos.
Puede mi empresa ver lo que escribo en ChatGPT?
Depende de como estes usando ChatGPT. Si usas tu cuenta personal, la empresa no tiene acceso a tus conversaciones (pero tampoco tiene control sobre los datos que envias). Si usas ChatGPT Team o Enterprise con SSO corporativo, la empresa puede tener acceso a audit logs que registran quien uso la herramienta, cuando y con que volumen, aunque generalmente no al contenido exacto de los prompts. Con herramientas DLP como Nightfall, la empresa puede detectar y bloquear el envio de datos sensibles antes de que lleguen a la IA.
Que herramientas de IA son seguras para mi empresa?
Ninguna herramienta es 100% segura por defecto. Lo que las hace seguras es la configuracion correcta y el plan adecuado. Como regla general: los planes Enterprise o Team de ChatGPT, Claude y Copilot son razonablemente seguros para datos corporativos normales. Para datos altamente sensibles (sanitarios, financieros regulados, secretos industriales), la opcion mas segura es ejecutar modelos de IA en local con Ollama donde los datos nunca salen de tu infraestructura.
Como detecto si mis empleados estan usando shadow AI?
Tres metodos combinados: (1) Herramientas DLP como Nightfall o Microsoft Purview que detectan datos sensibles en trafico web. (2) Monitorizacion de navegador con LayerX que identifica interacciones con dominios de IA. (3) Encuestas anonimas periodicas, que sorprendentemente dan resultados muy honestos cuando los empleados saben que no habra represalias. El enfoque mas efectivo combina los tres.
Deberia prohibir ChatGPT en mi empresa?
No. Prohibir ChatGPT (o cualquier IA) sin ofrecer alternativas aprobadas es contraproducente. El 49% de los empleados ya ha adoptado herramientas de IA sin permiso, y una prohibicion no va a cambiar eso. En su lugar, aprueba herramientas con planes empresariales, define una politica clara de uso, implementa DLP y forma a tu equipo. Samsung prohibio ChatGPT y tuvo que desarrollar su propia IA interna a un coste enorme. La mayoria de empresas no pueden permitirse eso.
Cada cuanto debo revisar la politica de IA de mi empresa?
Minimo cada 3 meses. El ecosistema de IA cambia a una velocidad sin precedentes: nuevos modelos, nuevas capacidades, nuevos riesgos. Una politica escrita en enero de 2026 ya esta desactualizada en abril. Programa revisiones trimestrales con los equipos de TI, seguridad, legal y RRHH. Actualiza la lista de herramientas aprobadas, revisa los incidentes del trimestre y ajusta la formacion.
Cronologia: Shadow AI de Teoria a Emergencia Corporativa
| Fecha | Evento |
|---|---|
| Noviembre 2022 | Lanzamiento de ChatGPT. Los empleados empiezan a usarlo para tareas laborales sin autorizacion formal. |
| Marzo-Abril 2023 | Tres incidentes de filtracion de datos en Samsung via ChatGPT. Samsung prohibe el uso de IA generativa externa. |
| Junio 2023 | JP Morgan, Goldman Sachs, Citi y Deutsche Bank restringen o prohiben ChatGPT internamente. |
| Diciembre 2025 | Gartner predice que el 40% de las brechas de datos en 2027 seran atribuidas a shadow AI. |
| Enero 2026 | CybSafe publica que el 77% de empleados pegan datos corporativos en herramientas de IA. |
| Febrero 2026 | LayerX confirma que el 32% de los movimientos no autorizados de datos ya pasan por herramientas GenAI (canal principal). |
| Marzo 2026 | Solo el 6% de las empresas tiene una estrategia avanzada de seguridad para IA (IBM). |
Servicios de Consultoria: Te Ayudo a Controlar Shadow AI
Si quieres que audite el uso de IA en tu empresa y te ayude a crear una politica que funcione, escribeme a javier@javadex.es. Diagnostico inicial gratuito.
Ofrezco formaciones de 2 horas para equipos sobre uso seguro de IA. Contacta en javier@javadex.es.
Si tu empresa quiere desplegarse herramientas de IA internas y necesita un VPS donde ejecutar modelos como Ollama o n8n sin depender de proveedores externos, yo uso Hostinger para mis propios despliegues. Su VPS KVM 1 a 4,99 EUR/mes da para ejecutar modelos ligeros como Phi-3 o Mistral 7B, y si necesitas mas potencia para modelos mas grandes, el VPS KVM 4 a 14,99 EUR/mes te da margen de sobra con 8 GB de RAM y 4 vCPU.
Fuentes y Referencias
- IBM. Cost of a Data Breach Report 2025. Publicado en julio de 2025.
- Gartner. Predicts 2026: AI Risk and Governance. Publicado el 4 de diciembre de 2025.
- CybSafe. Attitudes and Behaviours Around AI in the Workplace. Publicado el 15 de enero de 2026.
- Salesforce. State of IT Report 2025. Publicado en octubre de 2025.
- LayerX. Enterprise Browser Security Report 2026. Publicado en febrero de 2026.
- Samsung. Comunicado interno filtrado a Bloomberg y The Economist, abril de 2023.
- AEPD. Guia sobre el uso de la inteligencia artificial y el RGPD. Actualizada en diciembre de 2025.
- Reglamento (UE) 2024/1689 del Parlamento Europeo (Ley de IA de la UE). En vigor desde el 2 de febrero de 2025.
