GenAI est devenu un élément essentiel de la boîte à outils des employés. Pourtant, au-delà des gros titres à sensation comme ceux-ci, les données quantitatives réelles sur la façon dont les applications d'IA sont utilisées restent étonnamment rares. Chez LayerX, notre extension de navigateur d'entreprise nous offre une visibilité sur les activités des utilisateurs dans le navigateur, où Utilisation de l'application GenAI a lieu. Nous pouvons utiliser cette visibilité pour obtenir des informations complètes sur l’utilisation des outils GenAI et des applications SaaS basées sur l’IA.
Pour mettre en lumière l'utilisation de GenAI au profit de la communauté de la sécurité, nous avons compilé et analysé ces données, créant ainsi un Ecojustice avec des résultats (surprenants) sur la façon dont les utilisateurs d'entreprise consomment l'IA sur le lieu de travail. Basé sur des données réelles et des données de télémétrie collectées auprès de la clientèle de LayerX Security, il s'agit du premier rapport unique en son genre sur l'utilisation de GenAI en entreprise.
Nous présentons ci-dessous quelques-unes des principales conclusions. Pour lire l'intégralité de l'étude, cliquez ici.Rapport GenAI sur la sécurité des données d'entreprise 2025" rapport, comprenant tous les points de données et une analyse avancée, Vous n’avez qu’à cliquer ici pour vous y inscrire.
Dans quelle mesure l’utilisation de GenAI est-elle répandue ?
Alors que les outils GenAI comme ChatGPT, Gemini et Copilot sont de plus en plus utilisés autour de la machine à café, LayerX a constaté que leur utilisation réelle reste occasionnelle. Seuls 14.5 % des utilisateurs en entreprise interagissent avec ces outils chaque semaine. La plupart de cette activité se fait via ChatGPT. Les développeurs de logiciels sont les utilisateurs les plus fréquents (39 %), suivis par les commerciaux et le marketing (28 %).
Cela suggère que même si GenAI a fait des progrès significatifs depuis fin 2022, elle ne fait pas encore partie intégrante des flux de travail quotidiens de la plupart des entreprises. Cependant, son adoption devrait augmenter et les organisations devraient suivre son utilisation pour mieux comprendre comment l'IA est exploitée dans différents rôles.
Quelles applications SaaS d’IA sont utilisées ?
Les données de LayerX révèlent que l'utilisation des applications d'IA est fortement concentrée sur quelques outils dominants, ChatGPT représentant à lui seul près de 52 % de toutes les requêtes de sites Web liées à l'IA. Les cinq principales applications d'IA, dont Gemini, Claude et Copilot, représentent 86 % de l'utilisation de l'IA, tandis que les 50 dernières représentent collectivement moins de 1 %.
D’un point de vue informatique et de sécurité, cela crée un problème d’« IA fantôme », où de nombreuses applications d’IA moins connues fonctionnent sous le radar avec peu de surveillance, exposant potentiellement des données sensibles et créant des risques de sécurité. Pour atténuer ce problème, il est recommandé aux équipes de sécurité de mettre en œuvre une surveillance et une gouvernance pour suivre l’utilisation de l’IA dans toutes les applications SaaS.
Les organisations ont-elles une visibilité sur l’utilisation de l’IA sur le lieu de travail ?
La grande majorité des utilisations de l'IA sur le lieu de travail se font en dehors de la supervision organisationnelle, avec 71.6 % des accès aux outils GenAI via des comptes non professionnels. Même parmi les utilisateurs qui utilisent des comptes professionnels, seulement 11.7 % des connexions totales répondent à la norme de sécurité des comptes professionnels soutenus par l'authentification unique. Cela laisse pratiquement 90 % de l’utilisation des outils d’IA invisible pour les organisations.
Les employés qui utilisent des comptes personnels pour les outils GenAI contournent les mesures de sécurité de l'entreprise, exposant ainsi les données de l'entreprise à des risques de sécurité potentiels, notamment l'utilisation non autorisée de données pour la formation de modèles d'IA. Même lorsque des comptes d'entreprise sont utilisés, s'ils n'utilisent pas l'authentification unique, les organisations perdent la visibilité sur les interactions avec l'IA.
Quelles informations sont partagées ?
Un faible pourcentage d'utilisateurs professionnels sont responsables du partage de grandes quantités de données avec les outils GenAI. Cependant, ceux qui se livrent à cette activité ont tendance à le faire fréquemment : les utilisateurs intensifs collent des données en moyenne 6.8 fois par jour, et plus de 50 % de ces collages contiennent des informations d'entreprise. Les téléchargements de fichiers, bien que moins courants, se produisent également à un rythme notable.
Le risque principal vient du copier/coller et du téléchargement de fichiers, car ils permettent de partager rapidement de grandes quantités de données d’entreprise sensibles. De même, les téléchargements de fichiers impliquent probablement de grands ensembles de données qui, s’ils ne sont pas surveillés, peuvent présenter des risques de sécurité. Pour atténuer l’exposition potentielle des données, les organisations doivent surveiller de près les interactions des utilisateurs avec les outils GenAI, suivre les activités de partage de données et mettre en œuvre des contrôles pour empêcher la divulgation non autorisée d’informations d’entreprise.
Le problème avec les extensions de navigateur IA
Compatible avec GenAI les extensions du navigateur Les extensions de navigateur basées sur l'IA représentent un risque de sécurité important mais souvent négligé pour les entreprises. Nos recherches indiquent que plus de 20 % des utilisateurs ont installé au moins une extension de navigateur basée sur l'IA, et près de la moitié d'entre eux utilisent plusieurs extensions. Fait alarmant, 58 % de ces extensions demandent des autorisations « élevées » ou « critiques », accordant l'accès à des données sensibles telles que les cookies, l'activité de navigation et l'identité des utilisateurs. Plus inquiétant encore, 5.6 % des extensions basées sur l'IA sont classées comme malveillantes, ce qui en fait un vecteur potentiel de vol de données.
La sécurité des extensions de navigateur fait partie intégrante de la stratégie globale de sécurité GenAI de l'organisation. Les équipes de sécurité doivent mettre en œuvre des contrôles sur les extensions de navigateur compatibles avec l'IA, en s'assurant qu'elles bénéficient du même contrôle que l'accès direct à GenAI pour atténuer les menaces potentielles.
Quelles sont les prochaines étapes pour les organisations ?
D'après le rapport, il semble que les organisations manquent de visibilité sur les connexions et l'accès aux applications SaaS d'IA, l'utilisation d'applications qui ne sont pas les plus populaires et les extensions de navigateur d'IA. Obtenir une visibilité sur chaque aspect de ces surfaces de menace cachées devrait être une priorité pour chaque organisation. Étant donné que la consommation se fait via le navigateur, la prévention des fuites de données GenAI nécessite une stratégie de sécurité axée sur le navigateur qui se concentre sur l’endroit où – et la manière dont – les utilisateurs consomment les outils GenAI, et sur le déploiement d’outils de sécurité qui appliquent les protections de sécurité en conséquence.