Jako lider branży w zakresie bezpieczeństwa przeglądarek, staramy się rzucać światło na zagrożenia związane z rewolucyjnymi technologiami, takimi jak narzędzia GenAI. Nasze najnowsze badania, „Ujawnianie prawdziwego ryzyka narażenia danych GenAI”, zapewnia krytyczny wgląd w zakres i charakter tych ryzyk. W szczególności badamy niepokojące ryzyko wycieku danych za pośrednictwem GenAI.

Aby stworzyć raport, przeanalizowaliśmy, jak 10,000 XNUMX pracowników korzystało z ChatGPT i innych generatywnych aplikacji AI. Dane pochodziły z urządzeń z zainstalowanym rozszerzeniem LayerX. W tym poście na blogu zagłębiamy się w najważniejsze wnioski z raportu i omawiamy, w jaki sposób organizacje mogą wykorzystać te informacje do ochrony wrażliwych danych. Aby przeczytać pełny raport zawierający więcej szczegółów, kliknij tutaj.

5 kluczowych wniosków dotyczących wykorzystania GenAI

1. 44% Wzrost wykorzystania GenAI API w ciągu ostatnich 3 miesięcy

Nic więc dziwnego, że w ostatnich miesiącach znacząco wzrosło wykorzystanie GenAI. Można to głównie przypisać gwałtownie rosnącej popularności ChatGPT. Rozsądnie jest założyć, że użycie będzie rosło.

2. 15% pracowników wkleiło dane do GenAI

Aby jak najlepiej wykorzystać aplikacje GenAI, pracownicy nie tylko wpisują podpowiedzi, ale także wklejają dane. Przypominamy, że dane te mogą zostać wykorzystane do uczenia tych aplikacji, co oznacza, że ​​mogą pojawić się w odpowiedziach innych użytkowników. To sprawia, że ​​wklejanie jest bardzo prawdopodobnym źródłem ujawnienia danych.

3. Badania i rozwój, marketing i sprzedaż oraz finanse są najczęstszymi użytkownikami GenAI.

50% „ciężkich” użytkowników GenAI pochodzi z działów badawczo-rozwojowych, 23.8% z marketingu i sprzedaży, a 14.3% z działów finansowych. Oznacza to, że właśnie te działy są najbardziej narażone na ryzyko dla organizacji.

4. 6% pracowników wklejało wrażliwe dane do GenAI, 4% pracowników co tydzień wklejało wrażliwe dane do GenAI.

Zwróć uwagę na tę statystykę, jest dość niepokojąca – A znaczny procent użytkowników GenAI udostępnia wrażliwe dane firmowe GenAI. Chociaż jest to prawdopodobnie niewinne działanie, jest to zachowanie powtarzające się, zwiększające ryzyko ujawnienia danych.

5. 31% ujawnionych danych to kod źródłowy

43% to wewnętrzne dane biznesowe, a 12% to dane umożliwiające identyfikację. Organizacje wkładają wysiłki i zasoby w ochronę swoich klejnotów koronnych, ale po drugiej stronie otwartej przestrzeni ich klejnoty koronne są wklejane do narzędzi publicznych.

Przeczytaj pełny raport

GenAI otwiera nowe możliwości w zakresie produktywności, kreatywności i innowacji. Należy jednak zdawać sobie sprawę z zagrożeń związanych z GenAI. W szczególności te związane z bezpieczeństwem i prywatnością danych wrażliwych.

Celem tego raportu jest ukazanie potencjalnych zagrożeń związanych z wklejaniem wrażliwych danych związanych z GenAI. Jak pokazaliśmy, biznesplany, kod źródłowy i informacje umożliwiające identyfikację są wklejane do źródeł publicznych. Należy się spodziewać, że liczby te będą jedynie rosły. 

Przeczytaj całą ankietę, aby uzyskać więcej szczegółów, które pomogą Ci zbudować strategię bezpieczeństwa GenAI. Uzyskaj dodatkowe informacje, takie jak:

  • Ilu pracowników codziennie publikuje wrażliwe dane
  • Ile razy dziennie dane są wklejane do aplikacji GenAI
  • Jak chronić się przed wklejaniem wrażliwych danych
  • I więcej

Przeczytaj cały raport.