Razširjena uporaba generativne umetne inteligence v panogah zahteva varnost in operativno ozaveščenost o tveganjih in možnostih ublažitve. V tej objavi v spletnem dnevniku predstavljamo 10 najboljših tveganj in učinkovite strategije za zaščito pred njimi. Na koncu nudimo orodja, ki lahko pomagajo.

Pojav generativne umetne inteligence

Leto 2022 je zaznamovalo začetek novega področja generativne umetne inteligence. To obdobje je bilo priča hitremu napredku LLM (Large Language Models), kot so GPT-3, GPT-4, BERT, Claude, Gemini, Llama, Mistral in drugi. Ti LLM-ji so pokazali izjemne zmožnosti obdelave naravnega jezika (NLP), ustvarjanja slik in ustvarjanja kreativne vsebine. Posledično so se orodja, ki jih poganja umetna inteligenca, razširila po različnih panogah ter izboljševala produktivnost in inovativnost pri ustvarjanju vsebin, storitvah za stranke, razvoju itd. Imajo tudi potencial za nadaljnjo revolucijo v sektorjih, kot so zdravstvo, finance in zabava.

Transformativni učinek te sodobne tehnologije še ni v celoti razumljen. Kljub temu bi morale organizacije, ki želijo ohraniti konkurenčno prednost, načrtovati vključitev GenAI v svoje operacije prej kot slej. Hkrati bi morali obravnavati varnostna tveganja GenAI.

Tveganja generativne umetne inteligence

Uporaba aplikacij Gen AI in LLM-jev, bodisi javnih bodisi z internim razvojem in/ali uvajanjem, lahko predstavlja tveganje za organizacije. Ta tveganja Gen AI vključujejo:

Kategorija #1: Tveganja glede varnosti in zasebnosti

1. Zaskrbljenost glede zasebnosti

Generativna umetna inteligenca se opira na ogromne količine podatkov, ki so pogosto zbrani iz različnih virov. Ti lahko vsebujejo osebne podatke, vključno z osebnimi podatki. Če se ti podatki uporabijo v izhodih, lahko nehote razkrijejo občutljive podrobnosti o posameznikih, kar vodi do kršitev zasebnosti in morebitne zlorabe. Narava črne skrinjice številnih modelov GenAI dodatno otežuje preglednost in odgovornost, zaradi česar je težko izslediti, kako se določene podatkovne točke uporabljajo ali shranjujejo.

2. Lažna e-pošta in zlonamerna programska oprema

Generativni AI omogoča kiberkriminalcem, da oblikujejo zelo prepričljive in sofisticirane napade. Pred generativno umetno inteligenco je bil eden od znakov lažnega e-poštnega sporočila slaba slovnica in fraziranje. Vendar lahko e-poštna sporočila z lažnim predstavljanjem, ki jih ustvari AI, posnemajo ton, slog in obliko zakonite komunikacije. Zaradi tega jih posamezniki in varnostni sistemi težko zaznajo.

Poleg tega lahko napadalci uporabijo GenAI za razvoj in odpravljanje napak v zlonamerni programski opremi, ki lahko obide tradicionalne varnostne ukrepe. Ta napadalna zlonamerna programska oprema, ki jo ustvari umetna inteligenca, se lahko prilagaja in razvija, zaradi česar je še težje zaščititi se pred njo.

3. Notranje grožnje in zloraba zaposlenih

Notranje grožnje so posamezniki v podjetju, ki izkoriščajo njihov dostop do občutljivih informacij in sistemov. Te grožnje so lahko namerne, kot je kraja podatkov ali sabotaža, ali nenamerne, kot je nenamerno uhajanje podatkov zaradi malomarnosti. Insajderjeva seznanjenost z varnostnimi ukrepi organizacije jim pogosto omogoča, da lažje obidejo obrambo kot zunanji napadalci.

V kontekstu GenAI lahko notranji uporabniki nehote vnesejo ali prilepijo občutljive podatke v aplikacije GenAI. To lahko vključuje izvorno kodo, občutljive poslovne podatke, finančne podatke, podatke o strankah in drugo.

4. Povečana napadalna površina

Generativni sistemi umetne inteligence lahko povečajo površino napadov za grožnje kibernetski varnosti, saj se pogosto integrirajo z različnimi viri podatkov, API-ji in drugimi sistemi. To ustvari več vstopnih točk za morebitne napade. Kompleksnost teh integracij lahko privede do ranljivosti, ki bi jih zlonamerni akterji lahko izkoristili, kot je vnašanje zlonamernih podatkov za manipulacijo izhodov umetne inteligence ali dostop do občutljivih informacij prek šibkih povezav v sistemu. 

Kategorija #2: Tveganja kakovosti in zanesljivosti

5. Težave s kakovostjo izpisa

Težave s kakovostjo izhoda v generativnih sistemih umetne inteligence se pojavijo, ko umetna inteligenca ustvari besedilo, slike ali druge izhode, ki so netočni, nepravilni, zavajajoči, pristranski ali neprimerni. Dejavniki, ki prispevajo k slabi izhodni kakovosti, vključujejo neustrezne podatke o usposabljanju, nezadostno nastavitev modela in inherentno nepredvidljivost algoritmov AI.

V kritičnih aplikacijah, kot so zdravstvo, finance in kibernetska varnost, lahko netočni izhodi umetne inteligence povzročijo resne finančne izgube, pravne obveznosti, ohromitev poslovanja in celo ogrožajo življenja. Toda tudi pri nekritičnih aplikacijah imajo lahko nepravilni rezultati in širjenje napačnih ali zavajajočih informacij posledice za delo in življenja ljudi ter uspešnost podjetij.

6. Izmišljena »dejstva« in halucinacije

Skrajni primer zgoraj omenjenega vprašanja kakovosti je ustvarjanje "izmišljenih dejstev", imenovanih "halucinacije". To se zgodi, ko LLM ustvari informacije, ki se zdijo verjetne, a so v celoti izmišljene. Te halucinacije nastanejo zaradi zanašanja modela na vzorce v podatkih o usposabljanju in ne zaradi pravega razumevanja dejanske točnosti. Kot že omenjeno, lahko to privede do širjenja napačnih ali zavajajočih informacij, kar predstavlja resna tveganja – zlasti v kontekstih, kjer je točnost ključnega pomena, na primer v zdravstvenem, pravnem ali finančnem sektorju.

Kategorija #3: Pravna in etična tveganja

7. Avtorske pravice, intelektualna lastnina in druga pravna tveganja

Generativni sistemi AI pogosto uporabljajo ogromne količine podatkov, vključno z avtorsko zaščitenim gradivom, za usposabljanje svojih modelov. To lahko vodi do nenamerne reprodukcije zaščitene vsebine, kar lahko povzroči kršitev pravic intelektualne lastnine. Poleg tega obstaja pravno vprašanje, ali je LLM zakonsko dovoljeno usposabljati podatke o avtorskih pravicah. Nazadnje, ustvarjanje nove vsebine, ki je zelo podobna obstoječim delom, lahko povzroči pravne spore glede lastništva in izvirnosti.

Te izzive otežuje dvoumnost veljavne zakonodaje o avtorskih pravicah glede vsebine, ustvarjene z umetno inteligenco. Trenutno se o teh vprašanjih razpravlja na sodiščih in v javnosti. Na primer, The New York Daily News, Chicago Tribune, Denver Post in drugi časopisi so toži OpenAI in Microsoft zaradi kršitve avtorskih pravic.

8. Pristranski izhodi

Pristranski rezultati v sistemih umetne inteligence pogosto izvirajo iz izkrivljenih ali nereprezentativnih podatkov o usposabljanju, ki odražajo zgodovinske predsodke in sistemske neenakosti. Ko modeli umetne inteligence ustvarjajo pristranske rezultate, lahko to privede do diskriminatornih praks na področjih, kot so zaposlovanje, posojanje, kazenski pregon in zdravstvo, kar nepravično vpliva na marginalizirane skupine. To resno ogroža pravičnost in pravičnost, saj lahko ohranjajo in celo krepijo obstoječe družbene pristranskosti.

9. Skladnost

Ko sistemi umetne inteligence obdelujejo občutljive informacije, obstaja možnost uhajanja podatkov, nepooblaščenega dostopa in zlorabe zaupnih podatkov. To tveganje se še poveča, če ponudnik storitev umetne inteligence nima robustnih varnostnih ukrepov in certifikatov skladnosti. Zato lahko deljenje podatkov z generativnimi orodji AI znatno poveča tveganje za kršitev predpisov o skladnosti in zakonov o varstvu podatkov, zlasti v panogah s strogimi zahtevami glede varstva podatkov.

Kategorija #4: Operativna in finančna tveganja

10. Stroški strokovnega znanja in računanja

Pri internem razvoju, usposabljanju in uvajanju LLM so lahko stroški strokovnega znanja in računalništva precejšnji. Napredni sistemi umetne inteligence zahtevajo visoko zmogljive grafične procesorje, specializirano strojno opremo in storitve računalništva v oblaku, kar lahko povzroči velike stroške. Poleg tega visoko kvalificirani strokovnjaki, kot so podatkovni znanstveniki, inženirji ML in strokovnjaki za področja, prejemajo vrhunske plače. Globalno pomanjkanje grafičnih procesorjev in talentov dodatno zvišuje te stroške. To predstavlja pomembne ovire za vstop za številne organizacije. 

Strategije za ublažitev generativnih varnostnih tveganj umetne inteligence

Ko smo opisali tveganja, se pogovorimo o strategijah za zaščito pred njimi. 

Strategije za varnost in zaščito zasebnosti

  • popis – Določite področja poslovanja, kjer se uporablja gen AI. Od zaposlenih, ki poizvedujejo po priljubljenih aplikacijah Gen AI, kot so ChatGPT, Claude ali Gemini, do vaših inženirskih skupin, ki razvijajo vaše lastne LLM-je, do uporabe komercialnih ali odprtokodnih LLM-jev za vaše podatke.
  • Ocena tveganja – Preslikajte in ocenite potencialna varnostna tveganja, povezana z vsako vrsto uporabe. Za pomoč si lahko pomagate z zgornjim seznamom.
  • Izvedite nadzor dostopa – Uporabite mehanizme preverjanja, da določite, do katerih sistemov umetne inteligence lahko vaši zaposleni dostopajo in kako. Na primer, razširitev brskalnika za podjetja lahko vašim zaposlenim prepreči namestitev a zlonamerna razširitev maskiran kot zakonita razširitev ChatGPT.
  • Izvajajte pravilnike – Uveljavite pravilnike o tem, kako se lahko aplikacije GenAI uporabljajo v organizaciji. Na primer, razširitev brskalnika podjetja lahko prepreči vašim zaposlenim, da bi prilepili občutljivo kodo v aplikacije gen AI.
  • Popravek programske opreme – Posodobite in popravite sisteme, da izboljšate svojo varnostno držo pred napadi, ki jih poganja AI (in ne poganja AI).
  • Spremljanje – Sledite in odkrivajte nenavadne dogodke in sumljivo vedenje, od poskusov nepooblaščenega dostopa do nenormalnih vzorcev vedenja do lepljenja občutljivih podatkov v genska orodja AI.
  • Izobraževanje uporabnikov – Redno usposabljajte zaposlene o tveganjih genske umetne inteligence s pogovori, vajami in stalno podporo. Razširitev brskalnika v podjetju lahko podpira spletno usposabljanje tako, da zaposlenim pojasni, zakaj so dejanja, kot je lepljenje izvorne kode v ChatGPT, blokirana.

Strategije zaščite kakovosti in zanesljivosti

  • Zagotavljanje kakovosti podatkov – Uporabite nize podatkov, ki so raznoliki, uravnoteženi in brez pristranskosti ali netočnosti. Izvedite stroge postopke preverjanja podatkov za podatke, kot so samodejna preverjanja in ročni pregledi. Nenehno posodabljajte in izboljšujte nabore podatkov, da odražajo trenutne in točne informacije. 
  • Meritve ocenjevanja – Uporabite celovite metrike vrednotenja, kot so natančnost, priklic, rezultat F1 in BLEU, da prepoznate težave z natančnostjo in zmogljivostjo modela in njegovih rezultatov.
  • Vključite sisteme Human-in-the-Loop – Vključite človeške strokovnjake v faze usposabljanja, validacije in natančnega prilagajanja razvoja modela. Ljudje lahko zagotovijo kritične kontekstualne vpoglede, prepoznajo subtilne težave, ki bi jih avtomatizirani sistemi lahko spregledali, in ponudijo predloge za izboljšanje odzivov modela.

Pravne in etične strategije zaščite

  • Skladnost z zakonskimi predpisi – Zagotovite skladnost z zakoni o varstvu podatkov, kot sta GDPR in CCPA. To pomeni zagotoviti, da so podatki, ki se uporabljajo za usposabljanje, pridobljeni in obdelani zakonito, z ustreznim soglasjem in anonimizacijo.
  • Vzpostavite jasne etične smernice – Te smernice bi morale vključevati načela, kot so pravičnost, preglednost, odgovornost in izogibanje pristranskosti. Izvajanje etičnih okvirov umetne inteligence lahko zagotovi strukturiran pristop k zagotavljanju upoštevanja etičnih vidikov.

Strategije operativne in finančne zaščite

  • Zagotovite razširljivost, optimizacijo in zanesljivost infrastrukture – Uporabljajte robustne storitve v oblaku, visoko zmogljive računalniške vire, učinkovite rešitve za shranjevanje podatkov in razširljive cevovode AI. Sprejmite na primer model plačila po porabi, s ponudniki v oblaku se pogajajte o količinskih popustih in uporabite oskrbo GPE.

Rešitev za GenAI DLP

LayerX je razširitev brskalnika za podjetja, ki ščiti pred spletnimi grožnjami na točki tveganja – v brskalniku. LayerX zagotavlja a Rešitev DLP, posebej zasnovana za Generative AI orodja, kot je ChatGPT, katerih cilj je zaščititi občutljive podatke, ne da bi ovirali uporabniško izkušnjo.

Ključne zmogljivosti:

  • Preslikava in definicija podatkov – Prepoznajte in definirajte občutljive podatke, kot so izvorna koda in intelektualna lastnina za zaščito.
  • Prilagodljive kontrole podatkov – Izvedite kontrole, kot so pojavna opozorila ali dejanja blokiranja, ko so zaznani občutljivi podatki.
  • Varna produktivnost – Omogočite varno uporabo orodij GenAI z uporabo DLP podobnih ukrepov za preprečevanje nenamerne izpostavljenosti podatkov.
  • Kontrolniki razširitve brskalnika – Upravljajte dostop in dejanja znotraj GenAI za zaščito podatkovnih interakcij.

Podrobno zmanjšanje tveganja – Zaznajte in ublažite dejavnosti z visokim tveganjem, kot je lepljenje občutljivih podatkov, hkrati pa ohranite brezhibno uporabniško izkušnjo.