Volver al blog
Riesgos4 min de lectura20 de febrero de 2026

Shadow AI: el riesgo que tu empresa no ve pero ya existe

Tus empleados ya están usando ChatGPT, Gemini y Copilot para hacer su trabajo. La pregunta no es si lo hacen — es qué datos les están pasando.

Shadow AI es el uso de herramientas de inteligencia artificial por parte de empleados sin el conocimiento, aprobación ni control de la empresa. Es el equivalente del Shadow IT de los años 2010, pero con un impacto potencialmente mucho mayor.

¿Por qué es tan común?

La adopción de IA generativa fue masiva y rápida. ChatGPT llegó a 100 millones de usuarios en dos meses — más rápido que cualquier tecnología en la historia. Tus empleados no esperaron que IT aprobara nada. Simplemente empezaron a usarla para ser más productivos.

Y tienen razón en usarla. El problema no es la productividad — el problema es qué datos están metiendo en esas herramientas.

El escenario más común

Un abogado de tu empresa está redactando un contrato. Copia el borrador con los datos del cliente y lo pega en ChatGPT para que lo mejore. ChatGPT devuelve un texto mejor. El abogado lo usa. Nadie lo sabe.

Esos datos del cliente — nombre, CUIT, condiciones comerciales, información confidencial — acaban de salir de tu empresa hacia los servidores de OpenAI en Estados Unidos. Sin consentimiento del cliente, sin contrato de procesamiento de datos, sin que IT lo sepa.

Eso es una infracción de Ley 25.326 hoy mismo.

El dato que sorprende a todos los directivos

Cuando hacemos assessments en empresas medianas argentinas, la pregunta sobre Shadow AI consistentemente genera los scores más altos de riesgo. Más del 70% de las empresas no tienen ningún inventario de herramientas de IA en uso, y más del 60% admiten que no tienen visibilidad sobre qué información ingresan sus empleados en herramientas externas.

No es negligencia — es que nadie se lo preguntó antes.

Cómo detectar el Shadow AI en tu empresa

No necesitás tecnología sofisticada para empezar. Tres preguntas simples revelan la exposición.

¿Tenés una lista de las herramientas de IA que usás en tu empresa? Si la respuesta es no, ya tenés Shadow AI.

¿Existe alguna política que diga qué información pueden o no ingresar los empleados en herramientas de IA? Si la respuesta es no, el Shadow AI no tiene límites.

¿Alguien revisó los términos de privacidad de las herramientas que usan tus empleados? La versión gratuita de ChatGPT permite a OpenAI usar tus conversaciones para entrenar sus modelos.

El primer paso concreto

Antes de implementar tecnología de monitoreo o contratar consultores, el movimiento más efectivo es publicar una política de uso de IA en dos páginas que defina qué herramientas están aprobadas, qué tipo de información no puede ingresarse en IA externas, y cuáles son las consecuencias del incumplimiento.

Eso solo reduce el riesgo significativamente y tarda menos de una semana en implementarse.

¿Cómo está tu empresa en este tema?

Hacé el assessment gratuito y obtené tu Score ARI en 10 minutos.

Iniciar Assessment