GenAI har blivit en viktig komponent i de anställdas verktygslåda. Ändå, utöver bombastiska rubriker som dessa, är faktiska kvantitativa data om hur AI-applikationer används fortfarande förvånansvärt knappa. På LayerX ger vårt webbläsartillägg för företag oss insyn i användarnas aktiviteter i webbläsaren, där GenAI-applikationsanvändning sker. Vi kan använda den synligheten för att få omfattande insikter om användningen av GenAI-verktyg och AI-aktiverade SaaS-applikationer.
För att belysa GenAI-användning till förmån för säkerhetsgemenskapen har vi sammanställt och analyserat dessa data, vilket skapat en rapport med (överraskande) rön om hur företagsanvändare konsumerar AI på arbetsplatsen. Baserat på verkliga data och telemetri som samlats in från LayerX Securitys kundbas är detta den första och unika rapporten om företagsanvändning av GenAI.
Nedan presenterar vi några av de viktigaste resultaten. För att läsa hela "Enterprise GenAI Data Security Report 2025”-rapport, inklusive alla datapunkter och avancerad analys, Klicka här.
Hur utbredd är användningen av GenAI-användning?
Medan GenAI-verktyg som ChatGPT, Gemini och Copilot blir vanliga vattenkylare, har LayerX funnit att den faktiska förbrukningen förblir avslappnad. Endast 14.5 % av företagsanvändarna använder dessa verktyg varje vecka. Det mesta av denna aktivitet sker via ChatGPT. Mjukvaruutvecklare är de vanligaste användarna (39 %), följt av försäljning och marknadsföring (28 %).
Detta tyder på att även om GenAI har gjort betydande inbrytningar sedan slutet av 2022, har det ännu inte blivit en integrerad del av de dagliga arbetsflödena för de flesta. Men antagandet förväntas växa, och organisationer bör spåra användningen för att bättre förstå hur AI utnyttjas i olika roller.
Vilka AI SaaS-applikationer används?
LayerX-data avslöjar att användningen av AI-applikationer är kraftigt koncentrerad till ett fåtal dominerande verktyg, där ChatGPT enbart står för nästan 52 % av alla AI-relaterade webbplatsförfrågningar. De fem bästa AI-applikationerna, inklusive Gemini, Claude och Copilot, utgör 86 % av AI-användningen, medan de 50 nedersta står för mindre än 1 %.
Ur ett säkerhets- och IT-perspektiv skapar detta ett "skugg-AI"-problem, där många mindre kända AI-applikationer fungerar under radarn med liten tillsyn, vilket potentiellt exponerar känslig data och skapar säkerhetsrisker. För att mildra detta rekommenderas det att säkerhetsteam implementerar övervakning och styrning för att spåra AI-användning i alla SaaS-applikationer.
Har organisationer insyn i AI-användning på arbetsplatsen?
Den stora majoriteten av AI-användningen på arbetsplatsen sker utanför organisationens tillsyn, med 71.6 % av GenAI-verktygsåtkomsten sker via icke-företagskonton. Även bland de användare som använder företagskonton uppfyller endast 11.7 % av de totala inloggningarna säkerhetsstandarden för företagskonton som backas upp av SSO. Detta gör i praktiken nästan 90 % av AI-verktygsanvändningen osynlig för organisationer.
Anställda som använder personliga konton för GenAI-verktyg kringgår företagets säkerhetsåtgärder och utsätter företagsdata för potentiella säkerhetsrisker, inklusive obehörig dataanvändning för AI-modellutbildning. Även när företagskonton används, om de inte använder SSO, förlorar organisationer insyn i AI-interaktioner.
Vilken information delas?
En liten andel av företagsanvändare är ansvariga för att dela stora mängder data med GenAI-verktyg. Men de som ägnar sig åt den här aktiviteten tenderar att göra det ofta – tunga användare klistrar in data i genomsnitt 6.8 gånger per dag, med över 50 % av dessa klistrar innehåller företagsinformation. Filuppladdningar, även om de är mindre vanliga, sker också i en anmärkningsvärd takt.
Den primära risken kommer från kopiera/klistra in och filuppladdningar, eftersom de gör det möjligt att snabbt dela stora mängder känslig företagsdata. På liknande sätt involverar filuppladdningar sannolikt stora datamängder, som, om de inte övervakas, kan utgöra säkerhetsrisker. För att minska potentiell dataexponering bör organisationer noggrant övervaka användarinteraktioner med GenAI-verktyg, spåra datadelningsaktiviteter och implementera kontroller för att förhindra obehörigt avslöjande av företagsinformation.
Problemet med AI-webbläsartillägg
GenAI-aktiverad webbläsartillägg utgöra en betydande men ofta förbisedd säkerhetsrisk för företag. Vår forskning visar att över 20 % av användarna har installerat minst en AI-driven webbläsartillägg, och nästan hälften av dem använder flera tillägg. Oroväckande nog begär 58 % av dessa tillägg "höga" eller "kritiska" behörigheter, vilket ger åtkomst till känslig data som cookies, surfaktivitet och användaridentiteter. Ännu mer oroande är att 5.6 % av AI-drivna tillägg klassificeras som skadliga, vilket gör dem till en potentiell vektor för datastöld.
Säkerhet för webbläsartillägg är en integrerad del av organisationens övergripande GenAI-säkerhetsstrategi. Säkerhetsteam måste implementera kontroller över AI-aktiverade webbläsartillägg, för att säkerställa att de får samma granskning som direkt GenAI-åtkomst för att mildra potentiella hot.
Vad är nästa steg för organisationer
Baserat på rapporten verkar det som att organisationer saknar insyn i inloggningar och tillgång till AI SaaS-applikationer, användningen av applikationer som inte är de mest populära och AI-webbläsartillägg. Att få synlighet i varje aspekt av dessa dolda hotytor bör vara en prioritet för varje organisation. Eftersom konsumtion sker via webbläsaren kräver att förhindra GenAI-dataläckage en webbläsarens första säkerhetsstrategi som fokuserar på var – och hur – användare konsumerar GenAI-verktyg och distribuerar säkerhetsverktyg som upprätthåller säkerhetsskydd i enlighet med detta.