Generativna uvedba umetne inteligence je ustvarila varnostni paradoks. Ekipe delajo hitreje in ustvarijo več kode, vendar ta hitrost prinaša tiho, vztrajno tveganje od znotraj. Grožnje notranje umetne inteligence se redko začnejo z zlonamernim namenom. Običajno se začnejo s skrbnim zaposlenim, ki poskuša odpraviti napako v skriptu ali oblikovati prodajno poročilo z orodjem, ki ga njegova varnostna ekipa še ni preverila.

Ko razvijalec v javnega klepetalnega robota vstavi lastniške algoritme, ti podatki takoj zapustijo organizacijo. To je bistvo grožnje notranje umetne inteligence: nepooblaščen prenos občutljivih sredstev, kot so intelektualna lastnina ali osebni podatki, v zunanje modele umetne inteligence. Ti modeli lahko shranjujejo, obdelujejo ali se celo učijo na podlagi teh informacij.

Mehanika zlorabe umetne inteligence s strani zaposlenih

Tradicionalna tveganja za notranje uporabnike so pogosto vključevala prenos datotek na pogone USB. Nasprotno pa se zloraba umetne inteligence zaposlenih dogaja neposredno v brskalniku. Za starejše požarne zidove je postopek nemoten in neviden. Orodja za preprečevanje izgube podatkov (DLP) ne morejo učinkovito pregledati konteksta seje brskalnika. Vodje varnostnih oddelkov se zdaj soočajo z izzivom upravljanja pretoka podatkov v ekosistem »senčne SaaS«, ne da bi pri tem motili delovne procese.

Brskalnik je primarno delovno okolje sodobnega podjetja. Je tudi glavna izhodna točka za podatke. Zaposleni, ki jih vodijo roki, pogosto zaobidejo odobrene programske kanale. Uporabljajo orodja »senčne umetne inteligence«, ki ponujajo takojšnjo pomoč, vendar jim manjkajo varnostni standardi podjetja.

Senčni SaaS ekosistemi

Varnostne ekipe pogosto spregledajo obseg nedovoljene uporabe umetne inteligence. Nedavne analize kažejo, da organizacije nimajo vpogleda v skoraj 89 % orodij umetne inteligence, do katerih dostopajo njihovi zaposleni. Ta ekosistem vključuje večje platforme, kot je ChatGPT, in na stotine nišnih analizatorjev PDF ali generatorjev kode.

Večina povezav s temi orodji se zgodi prek osebnih računov. Ko se zaposleni prijavi z osebnim e-poštnim naslovom, organizacija izgubi nadzor. Ni dnevnika enotne prijave (SSO). Ne obstaja revizijska sled. Politike hrambe podatkov se ne uporabljajo. Podatki, vneseni v ta orodja, izginejo v črno skrinjico, kar ustvari ogromno slepo pego za odkrivanje notranjih groženj s strani umetne inteligence.

Ranljivost »kopiraj in prilepi«

Najpogostejši mehanizem izpostavljenosti podatkov je preprost: odložišče. Zaposleni rutinsko kopirajo besedilo iz varnih notranjih okolij, kot sta Salesforce ali IDE. Nato ga prilepijo v pozive GenAI.

To vedenje je težko opaziti. Kopiranje in lepljenje je temeljnega pomena za uporabo računalnika. Tradicionalni agenti končnih točk težko ločijo med uporabnikom, ki leplja podatke v korporativni kanal Slack, in javnim vmesnikom umetne inteligence. Brez natančne preglednosti na ravni brskalnika ta hitri pretok podatkov ostane nenadzorovan.

Posledice uhajanja podatkov GenAI v resničnem svetu

Neomejena uporaba umetne inteligence ima oprijemljive posledice. Odmevni dogodki uhajanja podatkov o GenAI so že ogrozili pomembno intelektualno lastnino.

Intelektualna lastnina je ogrožena

Izvorna koda je še posebej ranljiva. Razvijalci uporabljajo pomočnike za kodiranje z umetno inteligenco za optimizacijo rutin. Pogosto v okno za klepet prilepijo celotne bloke lastniške logike. Poročila kažejo, da izvorna koda predstavlja približno 32 % občutljivih podatkov, ki so ušli v orodja umetne inteligence.

Ko javni model prevzame to kodo, ta tehnično postane del nabora podatkov prodajalca. V najslabšem primeru bi se model umetne inteligence lahko "učil" iz te kode. Nato bi jo lahko reproduciral kot odgovor na poziv konkurenta, s čimer bi dejansko razkril poslovne skrivnosti organizacije.

Kršitve skladnosti in pravilnikov

Poleg kraje intelektualne lastnine zloraba umetne inteligence s strani zaposlenih ustvarja takojšnjo regulativno izpostavljenost. V zdravstvu ali financah nalaganje zdravstvenih kartotek ali zgodovine strank v orodje umetne inteligence, ki ni v skladu s predpisi, krši GDPR, HIPAA ali CCPA.

Finančni analitik lahko naloži dnevnik transakcij, da ustvari grafikon. Že samo to dejanje lahko povzroči hude kazni. Teh kršitev pravilnikov pogosto ni mogoče odkriti, dokler jih ne razkrije revizija tretje osebe. Včasih se pojavijo šele po javni kršitvi samega ponudnika umetne inteligence.

Zakaj starejša orodja ne uspejo pri odkrivanju notranjih groženj s strani umetne inteligence

Varnostne ekipe so se za spremljanje podatkov zanašale na CASB-je, varne spletne prehode (SWG) in omrežno zaščito pred izgubo podatkov (DLP). Ta orodja so bila zasnovana za določene perimetre. V dinamičnem svetu generativne umetne inteligence, ki je na prvem mestu v brskalnikih, se težko znajdejo.

Vrzel brskalnika

Orodja na ravni omrežja pregledujejo promet. Vendar pa je večina prometa GenAI šifrirana prek HTTPS. SWG lahko opazi, da uporabnik obišče openai.comNe more videti, kaj uporabnik tam počne. Ne more razlikovati med poizvedbo o vremenu in prilepljeno datoteko JSON, ki vsebuje 10,000 e-poštnih naslovov strank.

Orodja za spremljanje notranjih groženj z umetno inteligenco, ki se zanašajo izključno na omrežne podpise, ne zajamejo konteksta. Zgrešijo »zadnji del« interakcije: dejanski vnos v polje za poziv.

Nevidnost osebnih računov

Uporaba osebnega računa naredi kontrole, ki temeljijo na API-ju, neuporabne. Integracija podjetja z Microsoft Copilotom zaposlenemu ne preprečuje, da bi odprl ločen zavihek. Lahko se prijavi v osebni račun ChatGPT in tja prilepi iste občutljive podatke. V tej vrzeli se uresniči večina notranjih groženj umetne inteligence.

Feature Tradicionalno omrežje DLP / CASB Zaznavanje in odziv brskalnika LayerX
Obseg vidnosti Odobrene aplikacije (povezane z API-jem) Vsa dejavnost brskalnika (Sanctioned & Shadow)
Pregled podatkov Na podlagi datotek (nalaganja/prenosi) Besedilo v realnem času (pozivi, obrazci, lepljenje)
Kontekst identitete Samo za enotno prijavo v podjetju Razlikuje med osebno in poslovno identifikacijo
Odzivni čas Opozorila po dogodku Blokiranje tveganih dejanj v realnem času
Uporabniška izkušnja Močni agenti pogosto blokirajo dostop do aplikacij Lahka razširitev, granularno treniranje

 

Tabela 1: Primerjava obstoječih omrežnih varnostnih kontrolnikov in kontrolnikov, ki so izvorno v brskalniku, za varnost umetne inteligence.

Zaščita pred notranjimi grožnjami umetne inteligence z LayerX

Da bi organizacije učinkovito ublažile notranje grožnje umetne inteligence, morajo preusmeriti svojo obrambno pozornost. Bojišče ni več rob omrežja, temveč sam brskalnik. Platforma za zaznavanje in odzivanje brskalnikov (BDR) podjetja LayerX deluje kot lahka razširitev. Nahaja se neposredno v uporabnikovem delovnem procesu, da zagotavlja preglednost in nadzor, ki ga omrežne naprave nimajo.

Vidnost na ravni brskalnika

LayerX odpravlja slepo pego »senčne umetne inteligence«. Pregleduje vsako razširitev in spletno sejo. Prepozna tveganja, ki jih orodja za spremljanje notranjih groženj umetne inteligence lahko spregledajo. Na primer, zazna, ali uporabnik namesti zlonamerno razširitev »GPT za preglednice«, ki zahteva vsiljiva dovoljenja. Varnostne ekipe lahko preslikajo celotno površino napadov iz brskalnika v oblak. Natančno vidijo, katera orodja so v uporabi, kdo jih uporablja in ali do njih dostopajo s poslovnimi ali osebnimi poverilnicami.

Preprečevanje izpostavljenosti podatkov

Blokiranje orodij umetne inteligence popolnoma zavira inovacije in spodbuja izogibanje. LayerX namesto tega uporablja natančne varovalne ograje. Pravilniki lahko omogočijo dostop do spletnih mest GenAI za raziskave, hkrati pa blokirajo lepljenje kode, osebnih podatkov ali ključnih besed, označenih kot »Zaupno«.

Ko zaposleni poskuša izvesti tvegano dejanje, LayerX posreduje. Če uporabnik poskuša prilepiti seznam strank v klepetalni robot, je dejanje blokirano. Uporabnik prejme pojavno okno z razlago kršitve pravilnika. Ta pristop preprečuje razkritje podatkov in izobražuje uporabnika. Zmanjšuje verjetnost prihodnjih kršitev pravilnika.

Izolacija brskalnika z ničelnim zaupanjem

LayerX v brskalniku uveljavlja pristop ničelnega zaupanja. Preden dovoli prenos podatkov, preveri identiteto uporabnika in integriteto ciljne aplikacije. Če uporabnik poskuša dostopati do orodja GenAI prek osebnega računa, lahko LayerX uveljavi način »samo za branje«. Prav tako ga lahko preusmeri na primerek orodja, ki ga odobri podjetje. To zagotavlja, da poslovni podatki ostanejo znotraj meja poslovnih pogodb.

Strateška priporočila za varnostne vodje

Obramba pred grožnjo notranje umetne inteligence zahteva usklajeno strategijo. Tehnologija mora biti povezana s kulturnimi spremembami.

  1. Revidirajte svoje ekosisteme senčnega SaaS
    Ne moreš zavarovati tistega, česar ne moreš videti. Uvedite revizijo na ravni brskalnika, da ustvarite popis vseh orodij umetne inteligence, ki so v uporabi. Razvrstite jih glede na stopnjo tveganja in poslovno uporabnost.
  2. Določite jasne politike uporabe
    Dvoumnost vodi do nesreč. Jasno opredelite sprejemljive politike uporabe umetne inteligence. Določite, katera orodja so dovoljena. Navedite, katere vrste podatkov so prepovedane. Pojasnite posledice kršitev politik.
  3. Uvajanje kontrolnikov na ravni brskalnika
    Premaknite se dlje od omrežnega DLP-ja. Implementirajte rešitev za zaznavanje in odzivanje brskalnikov, kot je LayerX. Uveljavite pravilnike na točki interakcije. To zagotavlja tehnično podporo, potrebno za preprečevanje nenamernega uhajanja podatkov GenAI, ne da bi pri tem ustavilo produktivnost.
  4. Stalno spremljanje in izobraževanje
    Zaznavanje notranjih groženj z umetno inteligenco ni enkratna naloga. Nenehno spremljajte nove aplikacije umetne inteligence. Posodobite sezname blokiranih aplikacij. S podatki o blokiranih incidentih prepoznajte oddelke, ki potrebujejo ciljno usmerjeno varnostno usposabljanje.

GenAI je spremenil digitalno delovno mesto. Organizacije morajo priznati resničnost notranjih groženj umetne inteligence. Z uvedbo kontrol, ki so usklajene z dejanskim načinom dela zaposlenih, lahko podjetja operacionalizirajo prednosti umetne inteligence. To lahko storijo, ne da bi postala žrtev njenih tveganj. Cilj je zagotoviti, da organizacija s svetom deli svoje inovacije, ne pa svojih skrivnosti.