Powszechne stosowanie generatywnej sztucznej inteligencji w różnych branżach wymaga bezpieczeństwa i świadomości operacyjnej w zakresie zagrożeń i możliwości ich łagodzenia. W tym poście na blogu przedstawiamy 10 najważniejszych zagrożeń i praktyczne strategie ochrony przed nimi. W końcu zapewniamy narzędzia, które mogą pomóc.

Pojawienie się generatywnej sztucznej inteligencji

Rok 2022 był początkiem nowego obszaru generatywnej sztucznej inteligencji. W tym okresie nastąpił szybki rozwój LLM (modeli dużego języka), takich jak GPT-3, GPT-4, BERT, Claude, Gemini, Lama, Mistral i inne. Ci studenci LLM wykazali się niezwykłymi możliwościami w zakresie przetwarzania języka naturalnego (NLP), generowania obrazów i tworzenia kreatywnych treści. W rezultacie narzędzia oparte na sztucznej inteligencji rozprzestrzeniły się w różnych branżach, zwiększając produktywność i innowacyjność w tworzeniu treści, obsłudze klienta, rozwoju i nie tylko. Mają także potencjał, aby zrewolucjonizować takie sektory, jak opieka zdrowotna, finanse i rozrywka.

Transformacyjny wpływ tej nowoczesnej technologii nie został jeszcze w pełni poznany. Jednak organizacje chcące utrzymać przewagę konkurencyjną powinny raczej wcześniej niż później planować włączenie GenAI do swojej działalności. Jednocześnie powinni zająć się zagrożeniami bezpieczeństwa GenAI.

Zagrożenia związane z generatywną sztuczną inteligencją

Korzystanie z aplikacji Gen AI i LLM, publicznych lub w drodze wewnętrznego rozwoju i/lub wdrożenia, może stwarzać ryzyko dla organizacji. Do zagrożeń związanych z sztuczną inteligencją generacji zaliczają się:

Kategoria nr 1: Zagrożenia bezpieczeństwa i prywatności

1. Kwestie prywatności

Generatywna sztuczna inteligencja opiera się na ogromnych ilościach danych, często zbieranych z różnych źródeł. Mogą one zawierać dane osobowe, w tym PII. Jeśli dane te zostaną wykorzystane w wynikach, mogą w sposób niezamierzony ujawnić wrażliwe dane poszczególnych osób, co może prowadzić do naruszenia prywatności i potencjalnego niewłaściwego wykorzystania. Czarna skrzynka wielu modeli GenAI dodatkowo komplikuje przejrzystość i odpowiedzialność, utrudniając śledzenie, w jaki sposób wykorzystywane lub przechowywane są określone punkty danych.

2. E-maile phishingowe i złośliwe oprogramowanie

Generatywna sztuczna inteligencja umożliwia cyberprzestępcom przygotowywanie wysoce przekonujących i wyrafinowanych ataków. Przed generatywną sztuczną inteligencją jedną z charakterystycznych oznak wiadomości e-mail phishingowej była zła gramatyka i złe sformułowania. Jednak e-maile phishingowe generowane przez sztuczną inteligencję mogą naśladować ton, styl i format legalnej komunikacji. Utrudnia to wykrycie ich przez pojedyncze osoby i systemy bezpieczeństwa.

Ponadto osoby atakujące mogą wykorzystywać GenAI do opracowywania i debugowania złośliwego oprogramowania, które może ominąć tradycyjne zabezpieczenia. To złośliwe oprogramowanie atakujące generowane przez sztuczną inteligencję może się przystosowywać i ewoluować, co jeszcze bardziej utrudnia ochronę przed nim.

3. Groźby wewnętrzne i niewłaściwe wykorzystanie pracowników

Zagrożenia wewnętrzne to osoby w firmie, które wykorzystują swój dostęp do poufnych informacji i systemów. Zagrożenia te mogą być zamierzone, takie jak kradzież lub sabotaż danych, lub niezamierzone, takie jak przypadkowe wycieki danych spowodowane zaniedbaniem. Znajomość środków bezpieczeństwa organizacji często pozwala jej ominąć zabezpieczenia łatwiej niż atakującym z zewnątrz.

W kontekście GenAI osoby z wewnątrz mogą przypadkowo wpisać lub wkleić poufne dane do aplikacji GenAI. Może to obejmować kod źródłowy, wrażliwe informacje biznesowe, dane finansowe, informacje o klientach i inne.

4. Zwiększona powierzchnia ataku

Generacyjne systemy AI mogą zwiększyć powierzchnię ataku dla zagrożeń cyberbezpieczeństwa, ponieważ często integrują się z różnymi źródłami danych, interfejsami API i innymi systemami. Tworzy to wiele punktów wejścia dla potencjalnych ataków. Złożoność tych integracji może prowadzić do luk w zabezpieczeniach, które mogą wykorzystać złośliwi uczestnicy, na przykład wstrzykiwając złośliwe dane w celu manipulowania wynikami sztucznej inteligencji lub uzyskując dostęp do wrażliwych informacji poprzez słabe łącza w systemie. 

Kategoria nr 2: Ryzyko związane z jakością i niezawodnością

5. Problemy z jakością wydruku

Problemy z jakością wyników w generatywnych systemach sztucznej inteligencji pojawiają się, gdy sztuczna inteligencja generuje tekst, obrazy lub inne wyniki, które są niedokładne, nieprawidłowe, wprowadzające w błąd, stronnicze lub nieodpowiednie. Czynniki przyczyniające się do niskiej jakości wyników obejmują niewystarczające dane szkoleniowe, niewystarczające dostrojenie modelu i nieodłączną nieprzewidywalność algorytmów AI.

W krytycznych zastosowaniach, takich jak opieka zdrowotna, finanse i cyberbezpieczeństwo, niedokładne wyniki sztucznej inteligencji mogą skutkować poważnymi stratami finansowymi, zobowiązaniami prawnymi, paraliżem biznesowym, a nawet zagrożeniem życia. Jednak nawet w zastosowaniach niekrytycznych nieprawidłowe wyniki oraz rozpowszechnianie nieprawidłowych lub wprowadzających w błąd informacji mogą mieć konsekwencje dla pracy i życia ludzi oraz wyników przedsiębiorstw.

6. Zmyślone „fakty” i halucynacje

Skrajnym przykładem wspomnianego problemu jakościowego jest generowanie „zmyślonych faktów”, zwanych „halucynacjami”. Dzieje się tak, gdy LLM generuje informacje, które wydają się wiarygodne, ale są całkowicie sfabrykowane. Te halucynacje powstają w wyniku polegania modelu na wzorcach w danych szkoleniowych, a nie na prawdziwym zrozumieniu dokładności faktów. Jak wspomniano, może to prowadzić do rozpowszechniania nieprawidłowych lub wprowadzających w błąd informacji, co stwarza poważne ryzyko – szczególnie w kontekstach, w których dokładność ma kluczowe znaczenie, takich jak sektor opieki zdrowotnej, prawny lub finansowy.

Kategoria nr 3: Ryzyko prawne i etyczne

7. Prawa autorskie, własność intelektualna i inne ryzyko prawne

Generacyjne systemy AI często wykorzystują ogromne ilości danych, w tym materiałów chronionych prawem autorskim, do uczenia swoich modeli. Może to prowadzić do niezamierzonego powielania chronionych treści, potencjalnie naruszając prawa własności intelektualnej. Ponadto istnieje kwestia prawna, czy LLM może zgodnie z prawem szkolić się w zakresie danych dotyczących praw autorskich. Wreszcie, tworzenie nowych treści, które bardzo przypominają istniejące dzieła, może powodować spory prawne dotyczące własności i oryginalności.

Wyzwania te są spotęgowane przez niejednoznaczność obecnych przepisów dotyczących praw autorskich w odniesieniu do treści generowanych przez sztuczną inteligencję. Obecnie kwestie te są przedmiotem dyskusji w sądach i opinii publicznej. Na przykład „The New York Daily News”, „Chicago Tribune”, „Denver Post” i inne gazety pozywa OpenAI i Microsoft za naruszenie praw autorskich.

8. Stronnicze wyniki

Stronnicze wyniki systemów sztucznej inteligencji często pochodzą z wypaczonych lub niereprezentatywnych danych szkoleniowych, które odzwierciedlają uprzedzenia historyczne i nierówności systemowe. Kiedy modele sztucznej inteligencji generują stronnicze wyniki, może to prowadzić do praktyk dyskryminacyjnych w takich obszarach, jak zatrudnianie, udzielanie pożyczek, egzekwowanie prawa i opieka zdrowotna, co niesprawiedliwie wpływa na grupy marginalizowane. Stanowi to poważne zagrożenie dla sprawiedliwości i równości, ponieważ może utrwalić, a nawet wzmocnić istniejące uprzedzenia społeczne.

9. Spełnienie

Gdy wrażliwe informacje są przetwarzane przez systemy sztucznej inteligencji, istnieje ryzyko wycieku danych, nieautoryzowanego dostępu i niewłaściwego wykorzystania poufnych danych. Ryzyko to zwiększa się, jeśli dostawca usług AI nie posiada solidnych środków bezpieczeństwa i certyfikatów zgodności. Dlatego udostępnianie danych generatywnym narzędziom AI może znacznie zwiększyć ryzyko naruszenia przepisów dotyczących zgodności i przepisów o ochronie danych, szczególnie w branżach o rygorystycznych wymaganiach w zakresie ochrony danych.

Kategoria nr 4: Ryzyko operacyjne i finansowe

10. Koszt ekspertyzy i obliczeń

Podczas wewnętrznego opracowywania, szkolenia i wdrażania LLM koszt wiedzy specjalistycznej i obliczeń może być znaczny. Zaawansowane systemy AI wymagają wysokowydajnych procesorów graficznych, specjalistycznego sprzętu i usług przetwarzania w chmurze, co może wiązać się z ogromnymi wydatkami. Ponadto wysoko wykwalifikowani specjaliści, tacy jak badacze danych, inżynierowie uczenia maszynowego i eksperci dziedzinowi, otrzymują wysokie pensje. Globalny niedobór zarówno procesorów graficznych, jak i talentów dodatkowo podnosi te koszty. Stwarza to istotne bariery wejścia dla wielu organizacji. 

Strategie ograniczania zagrożeń bezpieczeństwa związanych z generatywną sztuczną inteligencją

Po zarysowaniu zagrożeń omówmy strategie ochrony przed nimi. 

Strategie bezpieczeństwa i ochrony prywatności

  • Magazyn – Zidentyfikuj obszary biznesu, w których wykorzystywana jest gen AI. Od pracowników wysyłających zapytania do popularnych aplikacji Gen AI, takich jak ChatGPT, Claude lub Gemini, po zespoły inżynierów opracowujące własne LLM po wykorzystanie komercyjnych lub open source LLM na Twoich danych.
  • Ocena ryzyka zawodowego – Mapuj i oceniaj potencjalne zagrożenia bezpieczeństwa związane z każdym rodzajem użytkowania. Możesz skorzystać z powyższej listy, aby pomóc.
  • Wdrażaj kontrolę dostępu – Korzystaj z mechanizmów weryfikacji, aby decydować, do jakich systemów AI generacji mają dostęp Twoi pracownicy i w jaki sposób. Na przykład rozszerzenie przeglądarki korporacyjnej może uniemożliwić pracownikom instalację pliku złośliwe rozszerzenie udający legalne rozszerzenie ChatGPT.
  • Wdrażaj zasady – Egzekwuj zasady dotyczące wykorzystania aplikacji GenAI w organizacji. Na przykład rozszerzenie przeglądarki korporacyjnej może uniemożliwić pracownikom wklejanie wrażliwego kodu do aplikacji gen AI.
  • Łatanie oprogramowania – Aktualizuj i łataj systemy, aby zwiększyć poziom bezpieczeństwa przed atakami opartymi na sztucznej inteligencji (i nie opartymi na sztucznej inteligencji).
  • Monitorowanie – Śledź i wykrywaj nietypowe incydenty i podejrzane zachowania, od prób nieautoryzowanego dostępu po nietypowe wzorce zachowań i wklejanie wrażliwych danych do narzędzi gen AI.
  • Edukacja użytkownika – Regularnie szkolić pracowników w zakresie zagrożeń związanych z sztuczną inteligencją gen. poprzez rozmowy, ćwiczenia i ciągłe wsparcie. Rozszerzenie przeglądarki dla przedsiębiorstw może wspierać szkolenia online, wyjaśniając pracownikom, dlaczego działania takie jak wklejanie kodu źródłowego do ChatGPT są blokowane.

Strategie ochrony jakości i niezawodności

  • Zapewnienie jakości danych – Korzystaj ze zbiorów danych, które są zróżnicowane, zrównoważone i wolne od uprzedzeń i niedokładności. Wdrażaj rygorystyczne procesy sprawdzania poprawności danych, takie jak automatyczne kontrole i ręczne przeglądy. Stale aktualizuj i udoskonalaj zbiory danych, aby odzwierciedlały aktualne i dokładne informacje. 
  • Metryki oceny – Korzystaj z kompleksowych wskaźników oceny, takich jak precyzja, przypominanie, wynik F1 i BLEU, aby identyfikować problemy z dokładnością i wydajnością modelu i jego wyników.
  • Włącz systemy oparte na działaniu człowieka w pętli – Zaangażuj ekspertów w fazę szkolenia, walidacji i dostrajania rozwoju modelu. Ludzie mogą zapewnić krytyczne spostrzeżenia kontekstowe, zidentyfikować subtelne problemy, które mogą przeoczyć zautomatyzowane systemy, i zaproponować sugestie, które ulepszą reakcje modelu.

Strategie ochrony prawnej i etycznej

  • Zgodność z przepisami prawa – Zapewnij zgodność z przepisami dotyczącymi ochrony danych, takimi jak RODO i CCPA. Oznacza to zapewnienie, że dane wykorzystywane do szkoleń są pozyskiwane i przetwarzane zgodnie z prawem, za odpowiednią zgodą i anonimizacją.
  • Ustal jasne wytyczne etyczne – Wytyczne te powinny obejmować zasady takie jak uczciwość, przejrzystość, odpowiedzialność i unikanie stronniczości. Wdrożenie ram etycznych dotyczących sztucznej inteligencji może zapewnić ustrukturyzowane podejście zapewniające uwzględnienie kwestii etycznych.

Strategie Operacyjne i Finansowe

  • Zapewnij skalowalność, optymalizację i niezawodność infrastruktury – Korzystaj z niezawodnych usług w chmurze, zasobów obliczeniowych o wysokiej wydajności, wydajnych rozwiązań do przechowywania danych i skalowalnych potoków AI. Na przykład zastosuj model płatności zgodnie z rzeczywistym użyciem, negocjuj rabaty ilościowe z dostawcami usług w chmurze i korzystaj z udostępniania procesorów graficznych.

Rozwiązanie dla GenAI DLP

LayerX to rozszerzenie przeglądarki dla przedsiębiorstw, które chroni przed zagrożeniami internetowymi w najbardziej niebezpiecznym miejscu – przeglądarce. LayerX zapewnia Rozwiązanie DLP zaprojektowane specjalnie dla generatywnej sztucznej inteligencji narzędzia takie jak ChatGPT, których celem jest ochrona wrażliwych danych bez pogarszania komfortu użytkownika.

Kluczowe możliwości:

  • Mapowanie i definicja danych – Identyfikuj i definiuj wrażliwe dane, takie jak kod źródłowy i własność intelektualna, w celu ochrony.
  • Konfigurowalne elementy sterujące danymi – Wdrożyć kontrole, takie jak ostrzeżenia w wyskakujących okienkach lub działania blokujące w przypadku wykrycia wrażliwych danych.
  • Bezpieczna produktywność – Włącz bezpieczne korzystanie z narzędzi GenAI, stosując środki podobne do DLP, aby zapobiec niezamierzonemu ujawnieniu danych.
  • Elementy sterujące rozszerzeniami przeglądarki – Zarządzaj dostępem i działaniami w ramach GenAI, aby zabezpieczyć interakcje z danymi.

Granularne ograniczanie ryzyka – Wykrywaj i eliminuj działania wysokiego ryzyka, takie jak wklejanie wrażliwych danych, zachowując jednocześnie bezproblemową obsługę użytkownika.