Ponieważ ChatGPT ma 1.16 miliarda użytkowników, stał się nieodłączną częścią życia wielu ludzi. Tak znacząca baza użytkowników wymaga, aby zespoły ds. bezpieczeństwa i IT znalazły i wdrożyły w swoim stosie rozwiązanie, które może chronić organizację przed potencjalnymi lukami w zabezpieczeniach.
Nie jest to ryzyko hipotetyczne; opublikowano już liczne raporty o potencjalnych naruszeniach cyberbezpieczeństwa z udziałem ChatGPT. W tym poście na blogu badamy te zagrożenia i dowiadujemy się, które rozwiązanie bezpieczeństwa może pomóc w ochronie przed luką umożliwiającą wyciek danych.
Aby przeczytać więcej o tym, jak rozwiązanie zabezpieczające przeglądarkę LayerX może chronić Twoją organizację przed potencjalnym wyciekiem danych, który może wynikać z korzystania przez pracowników z ChatGPT lub innych narzędzi generatywnej AI. Dowiedz się więcej tutaj
Martwe punkty w ochronie danych ChatGPT
Niesławny wyciek Samsung ChatGPT (który szybko staje się „SolarWinds” naruszeń cyberbezpieczeństwa generatywnej sztucznej inteligencji) stał się reprezentatywnym przykładem luk w zabezpieczeniach cyberbezpieczeństwa, które nękają platformy generatywnej sztucznej inteligencji. Podczas klęski Samsunga inżynierowie wkleili zastrzeżony kod w ChatGPT. Ponieważ wszystko wklejone w ChatGPT może zostać wykorzystane do szkoleń i odpowiedzi udzielanych innym użytkownikom, inżynierowie ci potencjalnie udostępniają poufny kod wszystkim konkurentom, którzy wiedzą, jak zadawać ChatGPT właściwe pytania.
ChatGPT może wydawać się obiektywnym narzędziem zwiększającym produktywność. Jednak w rzeczywistości jest to potencjalny kanał wycieku danych. Nawiasem mówiąc, pytając ChatGPT, czy istnieje potencjał wycieku danych, odpowiedź brzmi: „Jako model języka sztucznej inteligencji nie mam żadnej wewnętrznej motywacji ani możliwości wycieku danych. Jednak każdy system przechowujący dane wiąże się z potencjalnym ryzykiem wycieku danych lub innych luk w zabezpieczeniach…”
Badacze bezpieczeństwa pokazali już, w jaki sposób można wykorzystać ChatGPT i jego interfejsy API napisać złośliwe oprogramowanie, w jaki sposób Błędy ChatGPT spowodowały wycieki danych osobowych, a nawet w jaki sposób można wykorzystać monity do wyodrębnienia poufnych informacji udostępnianych przez innych użytkowników. Biorąc pod uwagę, że platformy generatywnej sztucznej inteligencji zyskają w nadchodzących latach większą popularność, do interesariuszy i zespołów zajmujących się bezpieczeństwem należy zabezpieczenie ich organizacji przed możliwością wycieku informacji o ich klejnotach koronnych do publicznego Internetu w wyniku błędu ludzkiego, błędnego założenia lub po prostu naiwność.
Gdzie DLP i CASB nie spełniają swoich oczekiwań
Tradycyjnie przedsiębiorstwa polegały na rozwiązaniach DLP (Data Leak Prevention), aby chronić wrażliwe dane organizacyjne przed nieautoryzowanym dostępem lub dystrybucją. DLP monitorują przepływ wrażliwych danych w organizacji. Po zidentyfikowaniu naruszenia zasad, na przykład nieautoryzowanego użytkownika próbującego uzyskać dostęp do zastrzeżonego zasobu, DLP podejmie działania i odpowiednio zareaguje. Może to obejmować blokowanie danych lub powiadamianie administratorów. Można również zastosować rozwiązania CASB, aby zabezpieczyć wrażliwe dane przed transmisją poza organizację.
Jednak zarówno DLP, jak i Rozwiązania CASB są zorientowane na pliki. Oznacza to, że chociaż uniemożliwiają one takie działania, jak modyfikowanie, pobieranie lub udostępnianie danych, to zapobieganie to dotyczy plików. Gdy pracownicy wpisują lub wklejają dane do przeglądarki na stronie ChatGPT, DLP i CASB są bezużyteczne. Te działania oparte na przeglądarce są poza ich zarządzaniem i kontrolą.
Co to jest bezpieczeństwo przeglądarki?
Bezpieczeństwo przeglądarki to technologie, narzędzia, platformy i praktyki, które umożliwiają dostęp do aplikacji i stron internetowych SaaS, jednocześnie chroniąc systemy i dane organizacyjne. Wykorzystując rozwiązanie zabezpieczające przeglądarkę, firmy mogą wykrywać zagrożenia i ryzyko internetowe wymierzone w przeglądarkę lub wykorzystywać ją jako wektor ataku oraz im zapobiegać. Do zagrożeń takich zalicza się złośliwe oprogramowanie, socjotechnika, kradzież i eksfiltracja danych.
W przeciwieństwie do rozwiązań zapewniających bezpieczeństwo sieci i punktów końcowych, platformy bezpieczeństwa przeglądarek skupiają się na aktywności sesji internetowych na żywo, która obejmuje rzeczywiste niezaszyfrowane strony internetowe renderowane i wyświetlane przez przeglądarki. Rozwiązania zabezpieczające przeglądarki działają poprzez identyfikowanie i blokowanie zagrożeń internetowych, poprzez zasady działania, zapobieganie udostępnianiu danych, egzekwowanie najniższych uprawnień, zapewnianie widoczności, wykrywanie złośliwych działań oraz zabezpieczanie zarówno urządzeń zarządzanych, jak i urządzeń BYOD/innych firm. Jako takie mogą być wykorzystywane do zabezpieczania działań w ChatGPT.
Jak rozwiązanie zabezpieczające przeglądarkę LayerX zapobiega wyciekom danych do ChatGPT
LayerX to platforma bezpieczeństwa przeglądarki przeznaczona dla użytkownika, która współpracuje z dowolną przeglądarką komercyjną, zamieniając ją w najbardziej chroniony i zarządzany obszar roboczy. LayerX stale monitoruje i analizuje sesje przeglądarek, aby zapewnić ich ochronę w czasie rzeczywistym. Dzięki szczegółowemu wglądowi w każde zdarzenie mające miejsce w sesji LayerX może wyróżnić zdarzenia wstawiania tekstu. Jedyne, co muszą zrobić zespoły ds. bezpieczeństwa, to zdefiniować politykę ograniczającą lub blokującą tę możliwość za pomocą karty ChatGPT. Ta polityka może obejmować wszystko, tj. całkowicie uniemożliwiać korzystanie z ChatGPT lub w przypadku określonych ciągów znaków.
LayerX oferuje wiele możliwości ochrony przed wyciekiem danych ChatGPT:
- Zapobieganie wklejaniu lub przesyłaniu danych – Zapewnienie, że pracownicy nie będą dodawać wrażliwych informacji do platformy Generative AI.
- Wykrywanie poufnego wpisywania danych – Identyfikowanie, kiedy pracownicy mają zamiar przesłać wrażliwe dane do ChatGPT i ograniczanie ich.
- Tryb ostrzegawczy – Uczestnictwo w szkoleniach pracowników podczas korzystania z ChatGPT poprzez dodanie wytycznych „bezpiecznego użytkowania”.
- Blokowanie lub wyłączanie witryny – Całkowite uniemożliwienie korzystania z ChatGPT lub rozszerzeń przeglądarki podobnych do ChatGPT.
- Wymagaj zgody/uzasadnienia użytkownika – Zapewnienie zatwierdzenia stosowania narzędzia generatywnej sztucznej inteligencji.
LayerX ochroni Twoją organizację przed potencjalnym wyciekiem danych, który może wynikać z korzystania przez pracowników z ChatGPT lub innych narzędzi generatywnej AI. Dowiedz się więcej tutaj.