Integracija generativne umjetne inteligencije u poduzeće omogućila je neviđenu produktivnost, ali ovaj tehnološki skok naprijed nosi značajan, često zanemaren, arhitektonski rizik. Zadani model isporuke za ove moćne alate je umjetna inteligencija s više korisnika, infrastruktura u kojoj više korisnika dijeli iste računalne resurse, uključujući i sam model umjetne inteligencije. Iako je ovaj pristup ekonomski učinkovit, stvara složen i izazovan sigurnosni ekosustav. Kako organizacija može biti sigurna da njezini povjerljivi podaci, uneseni tijekom jedne sesije, neće procuriti u drugu? Ovaj članak pokriva kako infrastruktura dijeljenog modela može procuriti kontekst ili podatke između sesija i ispituje kritične nedostatke u izolaciji korisnika kojima se sigurnosni lideri moraju pozabaviti.
Temeljni izazov je da su logičke granice koje odvajaju zakupce jake samo onoliko koliko je jak softver koji ih stvara. Nedostatak u ovoj digitalnoj particiji može dovesti do curenja GenAI sesije, gdje osjetljive informacije prelaze iz sesije jednog zakupca u sesiju drugog. Za CISO-ove i IT voditelje to predstavlja kritičan gubitak kontrole nad korporativnim podacima. Ublažavanje ovog rizika zahtijeva duboko razumijevanje ranjivosti svojstvenih dijeljenim sustavima, od manjkave izolacije modela i slabe izolacije podataka zakupca do neadekvatnih kontrola pristupa. U konačnici, osiguranje korištenja višezakupne umjetne inteligencije zahtijeva strateški pomak prema provođenju sigurnosti u točki interakcije: pregledniku.

Dvosjekli mač višestrukog najma u umjetnoj inteligenciji
Zašto je višenamjenska umjetna inteligencija postala industrijski standard? Odgovor leži u ekonomiji i skalabilnosti. Veliki jezični modeli (LLM) nevjerojatno su skupi za obuku i rad, zahtijevajući ogromne klastere specijaliziranog hardvera. Omogućujući tisućama korisnika da dijele jednu, masivnu instancu modela, pružatelji umjetne inteligencije mogu distribuirati te troškove, čineći napredne mogućnosti umjetne inteligencije dostupnima mnogo širem tržištu. Ovaj model odražava širi pomak prema SaaS-u i računarstvu u oblaku, gdje je dijeljena infrastruktura norma.
Upotrijebimo analogiju: zamislimo AI platformu za više stanara kao najsuvremeniju stambenu zgradu. Svaki stanar ima svoj sigurni stan (svoju privatnu sesiju), ali svi dijele osnovnu infrastrukturu zgrade, vodovod, električnu mrežu i ventilacijske sustave. U teoriji, svaki stan je savršeno izoliran. Ali što se događa ako kvar u ventilacijskom sustavu omogući da se razgovor iz jednog stana čuje u drugom? Ili ako problem s vodovodom u jednoj jedinici preplavi onu ispod? Ovo je digitalni ekvivalent curenja podataka u sustavu s više stanara.
Za poduzeće, učinkovitost ovog modela dolazi na štetu izravne kontrole. Sigurnosni timovi polažu ogromno povjerenje u sposobnost pružatelja umjetne inteligencije da održi savršenu izolaciju između korisnika. Kada dođe do curenja GenAI sesije, to nije samo tehnički kvar; to je kršenje tog povjerenja, s potencijalno ozbiljnim posljedicama za povjerljivost podataka i usklađenost s propisima.
Dekonstrukcija anatomije curenja GenAI sesije
Dakle, što je točno curenje GenAI sesije? To je specifična vrsta kršenja podataka gdje informacije koje jedan korisnik pruži u jednoj sesiji nenamjerno postanu vidljive drugom korisniku u zasebnoj sesiji. Ovdje se ne radi o hakeru koji provaljuje u bazu podataka; radi se o suptilnijem neuspjehu logičkog odvajanja koje bi trebalo držati interakcije stanara odvojenima.

Primarni uzrok je „curenje kontekstnog prozora“. Modeli umjetne inteligencije održavaju kratkoročno pamćenje ili „kontekstni prozor“ kako bi pratili tekući razgovor. Zamislite da pravni tim u zdravstvenoj tvrtki koristi GenAI alat za sažimanje osjetljivih podataka o pacijentu za predstojeću tužbu. Platforma bi trebala potpuno izbrisati ovaj kontekst nakon završetka sesije. Međutim, zbog greške u sustavu, fragmenti tih podataka o pacijentu ostaju u aktivnoj memoriji modela. Nekoliko trenutaka kasnije, korisnik iz potpuno druge tvrtke postavlja umjetnoj inteligenciji opće pitanje o zakonu o zdravstvu i dobiva odgovor koji uključuje neke povjerljive podatke o pacijentu iz prethodne sesije.
Ovaj hipotetski scenarij ilustrira ključnu opasnost. Curenje nije rezultat zlonamjernog napada, već greške u upravljanju sesijama platforme. Mehanizmi predmemoriranja, osmišljeni za ubrzavanje odgovora ponovnom upotrebom nedavnih izračuna, mogu postati još jedan vektor za curenje podataka ako predmemorirani podaci nisu strogo odvojeni po zakupniku. Ove ranjivosti je nevjerojatno teško otkriti tradicionalnim sigurnosnim alatima poput vatrozida ili rješenja za nadzor mreže jer se curenje podataka događa unutar šifriranog okruženja same AI aplikacije.
Kritični nedostaci izolacije modela
Učinkovita izolacija modela je načelo koje jamči da je interakcija svakog stanara s AI modelom potpuno neovisan računalni događaj. Odgovori modela za jednog stanara nikada ne bi trebali biti pod utjecajem podataka ili aktivnosti drugog. Postizanje savršene izolacije modela u živom, visokoprometnom AI okruženju s više stanara predstavlja ogroman tehnički izazov.
Jedna od glavnih slabih točaka je upravljanje stanjem. Kada model umjetne inteligencije obradi upit, ulazi u određeno „stanje“. Ako se to stanje ne resetira ispravno između sesija zakupnika, informacije mogu procuriti. Ovo je suptilna, ali snažna ranjivost. Osim slučajnog izlaganja podataka, manjkava izolacija modela stvara prilike za odlučnije protivnike. Na primjer, zlonamjerni akter koji djeluje kao jedan zakupnik mogao bi pokrenuti napad poznat kao „trovanje modela“. Ponavljanim hranjenjem pažljivo izrađenih, zlonamjernih ulaza umjetne inteligencije, mogli bi pokušati iskvariti ponašanje modela za sve zakupnike, uzrokujući generiranje lažnih, pristranih ili štetnih informacija.
Drugi problem je natjecanje za resurse. U dijeljenom okruženju, korisnici se natječu za iste računalne resurse. Ako jedan korisnik pokrene neuobičajeno intenzivan zadatak, to bi moglo stvoriti neočekivana stanja sustava koja narušavaju jamstva izolacije za ostale korisnike, što dovodi do nepredvidivog ponašanja i potencijalnih sigurnosnih propusta. To je izravno povezano s izazovom sigurne alokacije resursa.
Imperativ beskompromisne izolacije podataka najmoprimaca
Dok se izolacija modela fokusira na sloj obrade, izolacija podataka zakupnika bavi se temeljnom sigurnošću samih podataka. Ovo načelo nalaže da podaci svakog zakupnika moraju biti sigurno odvojeni u svakoj točki svog životnog ciklusa: kada se prenose preko mreže (u tranzitu), kada se pohranjuju u baze podataka ili datotečne sustave (u mirovanju) i dok ih aktivno obrađuje umjetna inteligencija.

Kvar u izolaciji podataka zakupnika često je izravniji i katastrofalniji od curenja sesije. Razmotrite AI platformu koja pohranjuje podatke o kupcima u velikoj, dijeljenoj bazi podataka, oslanjajući se na polje "tenant_id" u svakom retku za odvajanje podataka. Ako se otkrije ranjivost poput SQL injekcije, zlonamjerni akter mogao bi potencijalno zaobići ovo logičko odvajanje i ispitati podatke svakog kupca na platformi. Slično tome, ako pružatelj usluga koristi zajednički ključ za šifriranje za više zakupnika, kompromitiranje tog ključa otkrilo bi podatke svih.
Za organizacije koje posluju pod strogim regulatornim okvirima poput GDPR-a, HIPAA-e ili CCPA-e, kršenje izolacije podataka zakupnika je scenarij noćne more. Poduzeće, kao kontrolor podataka, ostaje pravno odgovorno za kršenje, iako se dogodilo na platformi treće strane. To naglašava ključnu točku: možete prepustiti uslugu vanjskim suradnicima, ali ne možete prepustiti odgovornost za zaštitu svojih podataka vanjskim suradnicima. Zbog toga su snažne SaaS sigurnosne prakse apsolutno nužne.
Kontrole pristupa: Previdjeni vratar
Sigurnost bilo koje višekorisničke AI platforme također uvelike ovisi o granularnosti njezinih kontrola pristupa. To su pravila koja određuju tko što može raditi. Nažalost, mnoge platforme nude samo grube, neadekvatne kontrole koje ne odražavaju složene sigurnosne potrebe poduzeća.
Prava sigurnost zahtijeva više od puke autentifikacije korisnika. Zahtijeva provođenje pravila o radnjama koje korisnik može poduzeti unutar aplikacije. Na primjer, organizacija bi mogla dopustiti svom marketinškom timu korištenje GenAI alata za brainstorming teksta oglasa, ali bi im strogo zabranila prijenos proračunske tablice koja sadrži osobne podatke svih njihovih kupaca. Može li AI platforma provesti ovo specifično pravilo? U većini slučajeva odgovor je ne. Platforma vidi autentificiranog korisnika od kupca koji plaća i dopušta radnju.
Ovdje načelo nultog povjerenja postaje ključno. Svaka radnja unutar AI sesije, svaki upit, svaki prijenos datoteke, treba biti podložan provjeri. Provođenje takvih detaljnih kontrola pristupa gotovo je nemoguće izvan aplikacije. Pravila se moraju primijeniti u trenutku radnje, što je za bilo koji web-bazirani AI alat korisnikov preglednik.
Duboko ukorijenjen rizik manjkave sigurne alokacije resursa
Na najdubljoj razini tehnološkog paketa leži izazov sigurne alokacije resursa. To se odnosi na proces particioniranja fizičkih hardverskih resursa, CPU ciklusa, memorijskih adresa i GPU procesorskih jedinica među različitim stanarima. U virtualiziranom okruženju oblaka, ovom particioniranjem upravlja hipervizor. Ako postoje nedostaci u načinu na koji hipervizor provodi ovo odvajanje, to može otvoriti vrata sofisticiranim napadima bočnih kanala.
Napad bočnim kanalom je onaj u kojem napadač dobiva informacije ne izravnim probijanjem algoritma za šifriranje, već promatranjem nuspojava njegovog izvršavanja. Na primjer, zlonamjerni korisnik mogao bi pažljivo pratiti obrasce pristupa memoriji ili fluktuacije u potrošnji energije na dijeljenom fizičkom poslužitelju. Analizirajući te suptilne signale, potencijalno bi mogli zaključiti da drugi korisnik koji radi na istom hardveru obrađuje osjetljive podatke. Ove napade, slične po konceptu poznatim ranjivostima Spectre i Meltdown, notorno je teško otkriti i spriječiti.
Rizik od manjkave sigurne alokacije resursa naglašava krajnji problem povjerenja s modelom s više zakupaca. Bez obzira na to koliko sigurnosnih značajki pružatelj umjetne inteligencije ugradi u svoju aplikaciju, sigurnost temeljnog hardvera i sloja virtualizacije uglavnom je crna kutija za kupca. Ova inherentna neizvjesnost razlog je zašto je strategija dubinske obrane, ona koja ne polaže slijepo povjerenje u pružatelja usluga, toliko važna.

Preglednik kao nova sigurnosna granica za umjetnu inteligenciju
S obzirom na ove složene i duboko ukorijenjene rizike, kako poduzeće može ponovno preuzeti kontrolu? Odgovor leži u premještanju fokusa sigurnosti s mrežnog perimetra na krajnju točku gdje se podaci zapravo obrađuju: preglednik. Tradicionalni sigurnosni alati poput vatrozida i CASB-ova ne vide specifičan sadržaj i kontekst korisničkih interakcija unutar šifrirane web sesije. Mogu vidjeti da je korisnik povezan s GenAI platformom, ali ne mogu vidjeti koje se informacije unose u upit.
Preglednik je ulazni kanal za sve podatke koji teku prema i iz SaaS i AI aplikacija. To je posljednja točka kontrole prije nego što se osjetljivi korporativni podaci predaju platformi treće strane. Zbog toga je preglednik idealno mjesto za provođenje sigurnosne politike. To je temeljno načelo iza otkrivanja i odgovora preglednika (BDR).
Rješenje poput LayerX-ovog proširenja za poslovni preglednik radi izravno unutar preglednika, pružajući granularnu vidljivost i kontrolu nad svim korisničkim aktivnostima. Može analizirati sadržaj web obrazaca, pratiti radnje kopiranja i lijepljenja te pregledavati prijenose datoteka u stvarnom vremenu, prije nego što podaci napuste krajnju točku. Kao što se vidi u LayerX-ovim GenAI sigurnosnim revizijama, ova vidljivost na strani klijenta ključna je za rješavanje rizika shadow IT zaštite i osiguravanje sveobuhvatne SaaS sigurnosti. Omogućuje sigurnosnim timovima da provedu granularne kontrole pristupa koje same AI platforme nemaju.
Akcijska obrana s LayerX-om: Od teorije do prakse
Prevedimo ovu strategiju u praktične akcije. Kako se proširenje poslovnog preglednika može obraniti od rizika umjetne inteligencije s više zakupaca?
- Otkrivanje skrivene umjetne inteligencije: Prvi izazov je vidljivost. Zaposlenici stalno usvajaju nove AI alate bez odobrenja IT odjela, stvarajući golemi „shadow SaaS“ ekosustav. LayerX pruža potpunu reviziju svih SaaS aplikacija, uključujući ove neodobrene AI alate, dajući sigurnosnim timovima potpunu sliku korištenja umjetne inteligencije u njihovoj organizaciji i povezanih rizika.
- Provođenje granularne prevencije gubitka podataka (DLP): Nakon što je uspostavljena vidljivost, LayerX omogućuje sigurnosnim timovima stvaranje i provođenje kontekstualno svjesnih DLP politika. Zamislite scenarij u kojem programer pokušava zalijepiti vlasnički isječak izvornog koda u javni GenAI alat. LayerX može otkriti ovu radnju u stvarnom vremenu i ili je u potpunosti blokirati, urediti osjetljivi kod prije slanja ili prikazati upozorenje korisniku, educirajući ga o korporativnoj politici.
- Sprječavanje krađe podataka pomoću GenAI-a: Iste se mogućnosti mogu koristiti za sprječavanje unutarnjih prijetnji. Zlonamjerni zaposlenik može pokušati ukrasti popis kupaca tako što će ga zalijepiti u AI chat i zatražiti od AI-a da ga "preoblikuje". LayerX može identificirati osjetljive podatke i blokirati radnju, zabilježivši događaj za istragu. To pruža ključnu zaštitu od korištenja AI-a kao alata za krađu podataka.
- Osiguravanje prijenosa datoteka: Mnogi GenAI alati sada prihvaćaju prijenos datoteka. Ovo je glavni potencijalni kanal za curenje podataka. LayerX može pratiti sve prijenose datoteka na AI platforme, blokirajući prijenose datoteka koje sadrže osjetljive informacije na temelju analize sadržaja, vrste datoteke ili drugih čimbenika rizika.
Izgradnja otporne strategije sigurnosti umjetne inteligencije
Široko rasprostranjena primjena umjetne inteligencije za više zakupaca stvarnost je modernog poduzeća. Dok će pružatelji usluga nastaviti poboljšavati svoje sigurnosne mjere, organizacije si ne mogu priuštiti pasivan pristup. Odgovornost za zaštitu korporativnih podataka, od curenja GenAI sesije do kršenja izolacije podataka zakupaca, u konačnici leži na poduzeću.
Otporna sigurnosna strategija za eru umjetne inteligencije mora biti proaktivna i mora biti usmjerena na preglednik. Implementacijom proširenja za poslovni preglednik, sigurnosni lideri mogu nadmašiti ograničenja tradicionalnih alata i dobiti detaljnu vidljivost i kontrolu potrebnu za sigurnu i produktivnu upotrebu GenAI-a. Ne radi se o blokiranju pristupa ovim moćnim alatima; radi se o inteligentnom upravljanju njihovom upotrebom. Osiguravanjem preglednika, organizacije mogu s pouzdanjem istražiti prednosti umjetne inteligencije, znajući da imaju robusnu posljednju liniju obrane koja štiti njihovu najvrjedniju imovinu: njihove podatke.