GenAI se ha convertido en un componente esencial en el conjunto de herramientas de los empleados. Sin embargo, más allá de titulares grandilocuentes como estos, los datos cuantitativos reales sobre cómo se utilizan las aplicaciones de IA siguen siendo sorprendentemente escasos. En LayerX, nuestra extensión de navegador empresarial nos brinda visibilidad de las actividades de los usuarios en el navegador, donde Uso de la aplicación GenAI se lleva a cabo. Podemos utilizar esa visibilidad para obtener información completa sobre el uso de las herramientas GenAI y las aplicaciones SaaS habilitadas para IA.

Para arrojar luz sobre el uso de GenAI en beneficio de la comunidad de seguridad, hemos recopilado y analizado esos datos, creando un (reporte) con hallazgos (sorprendentes) sobre cómo los usuarios empresariales consumen IA en el lugar de trabajo. Basado en datos reales y telemetría recopilada de la base de clientes de LayerX Security, este es el primer informe único en su tipo sobre el uso empresarial de GenAI.

A continuación, presentamos algunas de las conclusiones clave. Para leer el artículo completoInforme sobre seguridad de datos de Enterprise GenAI 2025” informe, incluidos todos los puntos de datos y análisis avanzados, haz clic aquí..

¿Qué tan extendido está el uso de GenAI?

Si bien las herramientas GenAI como ChatGPT, Gemini y Copilot se están convirtiendo en temas de conversación habituales en las reuniones informales, LayerX ha descubierto que el consumo real sigue siendo casual. Solo el 14.5 % de los usuarios empresariales interactúan con estas herramientas semanalmente. La mayor parte de esta actividad se realiza a través de ChatGPT. Los desarrolladores de software son los usuarios más frecuentes (39 %), seguidos de los vendedores y el marketing (28 %).

Esto sugiere que, si bien GenAI ha logrado avances significativos desde fines de 2022, aún no se ha convertido en una parte integral de los flujos de trabajo diarios de la mayoría. Sin embargo, se espera que la adopción crezca y las organizaciones deberían realizar un seguimiento del uso para comprender mejor cómo se aprovecha la IA en diferentes roles.

¿Qué aplicaciones SaaS de IA están en uso?

Los datos de LayerX revelan que el uso de aplicaciones de IA está muy concentrado en unas pocas herramientas dominantes, y que ChatGPT por sí sola representa casi el 52 % de todas las solicitudes de sitios web relacionadas con IA. Las cinco principales aplicaciones de IA, incluidas Gemini, Claude y Copilot, representan el 86 % del uso de IA, mientras que las 50 últimas representan en conjunto menos del 1 %.

Desde una perspectiva de seguridad y TI, esto crea un problema de “IA en la sombra”, en el que numerosas aplicaciones de IA menos conocidas operan bajo el radar y con poca supervisión, lo que potencialmente expone datos confidenciales y genera riesgos de seguridad. Para mitigar esto, se recomienda que los equipos de seguridad implementen monitoreo y gobernanza para rastrear el uso de IA en todas las aplicaciones SaaS.

¿Tienen las organizaciones visibilidad del uso de la IA en el lugar de trabajo?

La gran mayoría del uso de la inteligencia artificial en el lugar de trabajo se produce fuera de la supervisión de la organización, y el 71.6 % del acceso a la herramienta GenAI se realiza a través de cuentas no corporativas. Incluso entre los usuarios que sí utilizan cuentas corporativas, solo el 11.7 % del total de inicios de sesión cumple con el estándar de seguridad de las cuentas corporativas respaldadas por SSO. Esto deja prácticamente el 90% del uso de herramientas de IA invisible para las organizaciones.

Los empleados que utilizan cuentas personales para las herramientas GenAI pasan por alto las medidas de seguridad corporativas, lo que expone los datos de la empresa a posibles riesgos de seguridad, incluido el uso no autorizado de datos para el entrenamiento de modelos de IA. Incluso cuando se utilizan cuentas corporativas, si no utilizan SSO, las organizaciones pierden visibilidad de las interacciones de IA.

¿Qué información se está compartiendo?

Un pequeño porcentaje de usuarios empresariales se encarga de compartir grandes cantidades de datos con las herramientas GenAI. Sin embargo, quienes sí participan en esta actividad tienden a hacerlo con frecuencia: los usuarios habituales pegan datos una media de 6.8 veces al día, y más del 50% de esas veces contienen información corporativa. Las subidas de archivos, aunque son menos habituales, también se producen a un ritmo notable.

El riesgo principal proviene de las operaciones de copiar y pegar y de las subidas de archivos, ya que permiten compartir rápidamente grandes cantidades de datos corporativos confidenciales. De manera similar, las subidas de archivos probablemente impliquen grandes conjuntos de datos que, si no se supervisan, podrían plantear riesgos de seguridad. Para mitigar la posible exposición de datos, las organizaciones deben supervisar de cerca las interacciones de los usuarios con las herramientas GenAI, realizar un seguimiento de las actividades de intercambio de datos e implementar controles para evitar la divulgación no autorizada de información corporativa.

El problema con las extensiones de navegador basadas en inteligencia artificial

GenAI habilitado extensiones del navegador Las extensiones de navegador con inteligencia artificial representan un riesgo de seguridad importante, aunque a menudo se pasan por alto, para las empresas. Nuestra investigación indica que más del 20 % de los usuarios han instalado al menos una extensión de navegador con inteligencia artificial y casi la mitad de ellos utilizan varias extensiones. Es alarmante que el 58 % de estas extensiones soliciten permisos "altos" o "críticos", lo que otorga acceso a datos confidenciales como cookies, actividad de navegación e identidades de usuario. Aún más preocupante, el 5.6 % de las extensiones con inteligencia artificial están clasificadas como maliciosas, lo que las convierte en un vector potencial para el robo de datos.

La seguridad de las extensiones del navegador es una parte integral de la estrategia de seguridad general de GenAI de la organización. Los equipos de seguridad deben implementar controles sobre las extensiones del navegador habilitadas para IA, asegurándose de que reciban el mismo escrutinio que el acceso directo a GenAI para mitigar las posibles amenazas.

¿Qué sigue para las organizaciones?

Según el informe, parece que las organizaciones carecen de visibilidad sobre los inicios de sesión y el acceso a las aplicaciones SaaS de IA, el uso de aplicaciones que no son las más populares y las extensiones de navegador de IA. Obtener visibilidad sobre cada aspecto de estas superficies de amenaza ocultas debería ser una prioridad para todas las organizaciones. Dado que el consumo se produce a través del navegador, evitar la fuga de datos de GenAI requiere una Estrategia de seguridad que prioriza el navegador que se centra en dónde y cómo los usuarios consumen las herramientas GenAI y en implementar herramientas de seguridad que apliquen protecciones de seguridad en consecuencia.

Lee el informe completo.