GenAI stało się niezbędnym elementem zestawu narzędzi dla pracowników. Jednak wykraczając poza bombastyczne nagłówki, takie jak te, rzeczywiste dane ilościowe dotyczące sposobu korzystania z aplikacji AI pozostają zaskakująco skąpe. W LayerX nasze rozszerzenie przeglądarki korporacyjnej zapewnia nam wgląd w działania użytkowników w przeglądarce, gdzie Wykorzystanie aplikacji GenAI ma miejsce. Dzięki tej wiedzy możemy uzyskać kompleksowy wgląd w wykorzystanie narzędzi GenAI i aplikacji SaaS opartych na sztucznej inteligencji.

Aby rzucić światło na wykorzystanie GenAI na korzyść społeczności zajmującej się bezpieczeństwem, zebraliśmy i przeanalizowaliśmy te dane, tworząc raport z (zaskakującymi) odkryciami na temat tego, jak użytkownicy korporacyjni korzystają z AI w miejscu pracy. Na podstawie rzeczywistych danych i danych telemetrycznych zebranych od klientów LayerX Security, jest to pierwszy i jedyny w swoim rodzaju raport dotyczący korzystania z GenAI w przedsiębiorstwach.

Poniżej przedstawiamy niektóre z kluczowych ustaleń. Aby przeczytać całość „Raport Enterprise GenAI Data Security Report 2025„raport zawierający wszystkie punkty danych i zaawansowaną analizę, kliknij tutaj.

Jak powszechne jest wykorzystanie GenAI?

Podczas gdy narzędzia GenAI, takie jak ChatGPT, Gemini i Copilot, stają się regularnymi tematami rozmów przy dystrybutorze wody, LayerX odkrył, że rzeczywiste zużycie pozostaje okazjonalne. Tylko 14.5% użytkowników korporacyjnych korzysta z tych narzędzi co tydzień. Większość tej aktywności odbywa się za pośrednictwem ChatGPT. Deweloperzy oprogramowania są najczęstszymi użytkownikami (39%), a następnie dział sprzedaży i marketingu (28%).

Sugeruje to, że chociaż GenAI poczyniło znaczące postępy od końca 2022 r., nie stało się jeszcze integralną częścią codziennych przepływów pracy dla większości. Oczekuje się jednak, że adopcja wzrośnie, a organizacje powinny śledzić wykorzystanie, aby lepiej zrozumieć, w jaki sposób AI jest wykorzystywana w różnych rolach.

Jakie aplikacje SaaS oparte na sztucznej inteligencji są w użyciu?

Dane LayerX ujawniają, że wykorzystanie aplikacji AI jest silnie skoncentrowane wśród kilku dominujących narzędzi, przy czym sam ChatGPT odpowiada za prawie 52% wszystkich żądań stron internetowych związanych z AI. Pięć najlepszych aplikacji AI, w tym Gemini, Claude i Copilot, stanowi 86% wykorzystania AI, podczas gdy 50 najgorszych łącznie odpowiada za mniej niż 1%.

Z perspektywy bezpieczeństwa i IT tworzy to problem „sztucznej inteligencji cienia”, w którym liczne mniej znane aplikacje AI działają pod radarem z niewielkim nadzorem, potencjalnie ujawniając wrażliwe dane i stwarzając zagrożenia bezpieczeństwa. Aby temu zaradzić, zaleca się, aby zespoły ds. bezpieczeństwa wdrożyły monitorowanie i zarządzanie w celu śledzenia wykorzystania sztucznej inteligencji we wszystkich aplikacjach SaaS.

Czy organizacje mają wgląd w wykorzystanie sztucznej inteligencji w miejscu pracy?

Zdecydowana większość wykorzystania AI w miejscu pracy odbywa się poza nadzorem organizacyjnym, przy czym 71.6% dostępu do narzędzi GenAI odbywa się za pośrednictwem kont niekorporacyjnych. Nawet wśród użytkowników, którzy korzystają z kont korporacyjnych, tylko 11.7% wszystkich logowań spełnia standard bezpieczeństwa kont korporacyjnych obsługiwanych przez SSO. W efekcie prawie 90% narzędzi AI pozostaje niewidocznych dla organizacji.

Pracownicy korzystający z kont osobistych dla narzędzi GenAI omijają zabezpieczenia korporacyjne, narażając dane firmy na potencjalne zagrożenia bezpieczeństwa, w tym nieautoryzowane wykorzystanie danych do szkolenia modeli AI. Nawet gdy używane są konta korporacyjne, jeśli nie używają one SSO, organizacje tracą widoczność interakcji AI.

Jakie informacje są udostępniane?

Niewielki odsetek użytkowników korporacyjnych jest odpowiedzialny za udostępnianie dużych ilości danych narzędziom GenAI. Jednak ci, którzy angażują się w tę aktywność, robią to często — użytkownicy intensywnie wklejają dane średnio 6.8 razy dziennie, przy czym ponad 50% tych wklejeń zawiera informacje korporacyjne. Przesyłanie plików, choć mniej powszechne, również odbywa się w znaczącym tempie.

Główne ryzyko wiąże się z kopiowaniem/wklejaniem i przesyłaniem plików, ponieważ umożliwiają one szybkie udostępnianie dużych ilości poufnych danych korporacyjnych. Podobnie przesyłanie plików prawdopodobnie obejmuje duże zestawy danych, które, jeśli nie są monitorowane, mogą stwarzać zagrożenia bezpieczeństwa. Aby ograniczyć potencjalne narażenie danych, organizacje powinny ściśle monitorować interakcje użytkowników z narzędziami GenAI, śledzić działania związane z udostępnianiem danych i wdrażać kontrole, aby zapobiec nieautoryzowanemu ujawnieniu informacji korporacyjnych.

Problem z rozszerzeniami przeglądarek AI

Z obsługą GenAI rozszerzenia przeglądarki stanowią poważne, ale często pomijane ryzyko bezpieczeństwa dla przedsiębiorstw. Nasze badania wskazują, że ponad 20% użytkowników zainstalowało co najmniej jedno rozszerzenie przeglądarki oparte na sztucznej inteligencji, a prawie połowa z nich korzysta z wielu rozszerzeń. Co alarmujące, 58% tych rozszerzeń żąda uprawnień „wysokich” lub „krytycznych”, udzielając dostępu do poufnych danych, takich jak pliki cookie, aktywność przeglądania i tożsamości użytkowników. Co jeszcze bardziej niepokojące, 5.6% rozszerzeń opartych na sztucznej inteligencji jest klasyfikowanych jako złośliwe, co czyni je potencjalnym wektorem kradzieży danych.

Bezpieczeństwo rozszerzeń przeglądarki jest integralną częścią ogólnej strategii bezpieczeństwa GenAI organizacji. Zespoły ds. bezpieczeństwa muszą wdrożyć kontrole rozszerzeń przeglądarki obsługujących AI, zapewniając, że będą one poddawane takiej samej kontroli, jak bezpośredni dostęp GenAI, aby ograniczyć potencjalne zagrożenia.

Co dalej z organizacjami

Na podstawie raportu wydaje się, że organizacjom brakuje widoczności logowań i dostępu do aplikacji SaaS AI, korzystania z aplikacji, które nie są najpopularniejsze, oraz rozszerzeń przeglądarki AI. Uzyskanie widoczności każdego aspektu tych ukrytych powierzchni zagrożeń powinno być priorytetem dla każdej organizacji. Ponieważ konsumpcja odbywa się za pośrednictwem przeglądarki, zapobieganie wyciekom danych GenAI wymaga strategia bezpieczeństwa oparta na przeglądarce który koncentruje się na tym, gdzie i w jaki sposób użytkownicy korzystają z narzędzi GenAI, a także wdraża narzędzia bezpieczeństwa, które odpowiednio egzekwują ochronę bezpieczeństwa.

Przeczytaj cały raport.