Como líder de la industria en seguridad de navegadores, estamos comprometidos a arrojar luz sobre los riesgos asociados con tecnologías revolucionarias, como las herramientas GenAI. Nuestras últimas investigaciones, "Revelando el verdadero riesgo de exposición de datos GenAI", proporciona información crítica sobre el alcance y la naturaleza de estos riesgos. Específicamente, examinamos el preocupante riesgo de filtración de datos a través de GenAI.

Para crear el informe, analizamos cómo 10,000 empleados utilizaron ChatGPT y otras aplicaciones de IA generativa. Los datos provienen de dispositivos con la extensión LayerX instalada. En esta publicación de blog, profundizamos en los hallazgos clave del informe y analizamos cómo las organizaciones pueden aprovechar esta información para proteger datos confidenciales. Para leer el informe completo con más detalles, haga clic aquí.

Cinco hallazgos clave sobre el uso de GenAI

1. Aumento del 44 % en el uso de la API GenAI en los últimos 3 meses

No es sorprendente que el uso de GenAI haya aumentado significativamente en los últimos meses. Esto se puede atribuir principalmente a la creciente popularidad de ChatGPT. Es razonable suponer que el uso no hará más que crecer.

2. El 15% de los empleados ha pegado datos en GenAI.

Para aprovechar al máximo las aplicaciones GenAI, los empleados no solo escriben mensajes, sino que también pegan datos. Como recordatorio, estos datos podrían usarse para entrenar estas aplicaciones, lo que significa que podrían aparecer en una respuesta para otros usuarios. Esto hace que pegar acciones sea una fuente muy probable de exposición de datos.

3. I+D, marketing y ventas y finanzas son los mayores usuarios de GenAI.

El 50% de los usuarios 'intensos' de GenAI provienen de I+D, el 23.8% provienen de Marketing y Ventas y el 14.3% provienen de departamentos financieros. Esto significa que estos departamentos constituyen la mayor exposición al riesgo para las organizaciones.

4. El 6% de los empleados ha pegado datos confidenciales en GenAI, el 4% de los empleados pega datos confidenciales en GenAI semanalmente.

Tome nota de esta estadística, es bastante alarmante. A Un porcentaje significativo de usuarios de GenAI están exponiendo datos confidenciales de la empresa en GenAI. Si bien probablemente se trate de una acción inocente, se trata de un comportamiento recurrente que aumenta el riesgo de exposición de los datos.

5. El 31% de los datos expuestos son código fuente.

El 43% son datos comerciales internos y el 12% son PII. Las organizaciones están poniendo esfuerzos y recursos para proteger sus joyas de la corona, pero al otro lado del espacio abierto, sus joyas de la corona se están pegando en herramientas públicas.

Lea el informe completo

GenAI está abriendo nuevas oportunidades para la productividad, la creatividad y la innovación. Sin embargo, es importante reconocer los riesgos que conlleva la GenAI. En concreto, las asociadas a la seguridad y privacidad de datos sensibles.

El propósito de este informe es exponer los peligros potenciales de pegar datos confidenciales asociados con GenAI. Como hemos mostrado, los planes de negocios, el código fuente y la PII se pegan en estas fuentes públicas. Se espera que las cifras aumenten. 

Lea la encuesta completa para obtener más detalles que lo ayudarán a desarrollar su estrategia de seguridad GenAI. Obtenga información adicional como:

  • ¿Cuántos empleados publican datos confidenciales diariamente?
  • ¿Cuántas veces al día se pegan datos en las aplicaciones GenAI?
  • Cómo protegerse contra el pegado de datos confidenciales
  • Y más...

Lea el informe completo.