Generativ bruk av kunstig intelligens har skapt et sikkerhetsparadoks. Team jobber raskere og produserer mer kode, men denne hastigheten introduserer en stille, vedvarende risiko innenfra. Trusler fra kunstig intelligens starter sjelden med ondsinnet hensikt. De starter vanligvis med at en flittig ansatt prøver å feilsøke et skript eller formatere en salgsrapport ved hjelp av et verktøy sikkerhetsteamet deres aldri har kontrollert.

Når en utvikler limer inn proprietære algoritmer i en offentlig chatbot, forlater disse dataene organisasjonen umiddelbart. Dette er kjernen i hva en AI-insidertrussel er: uautorisert overføring av sensitive eiendeler som immaterielle rettigheter eller PII til eksterne AI-modeller. Disse modellene kan lagre, behandle eller til og med trene på denne informasjonen.

Mekanikken bak ansattes misbruk av AI

Tradisjonelle insiderrisikoer involverte ofte nedlasting av filer til USB-stasjoner. Misbruk av AI blant ansatte skjer derimot direkte i nettleseren. Det er sømløst og usynlig for eldre brannmurer. Verktøy for forebygging av datatap (DLP) kan ikke effektivt inspisere konteksten til en nettleserøkt. Sikkerhetsledere står nå overfor utfordringen med å styre hvordan data flyter til «Shadow SaaS»-økosystemet uten å ødelegge arbeidsflyter.

Nettleseren er det primære arbeidsområdet for den moderne bedriften. Det er også det viktigste utgangspunktet for data. Ansatte som er drevet av tidsfrister, omgår ofte godkjente programvarekanaler. De tar i bruk «Shadow AI»-verktøy som tilbyr umiddelbar hjelp, men mangler sikkerhetsstandarder for bedrifter.

Skygge SaaS-økosystemer

Sikkerhetsteam overser ofte omfanget av usanksjonert bruk av kunstig intelligens. Nyere analyser viser at organisasjoner mangler innsikt i nesten 89 % av kunstig intelligens-verktøyene som arbeidsstyrken deres har tilgang til. Dette økosystemet inkluderer store plattformer som ChatGPT og hundrevis av nisjebaserte PDF-analysatorer eller kodegeneratorer.

De fleste tilkoblinger til disse verktøyene skjer gjennom personlige kontoer. Når en ansatt logger seg på med en personlig e-postadresse, mister organisasjonen tilsynet. Det finnes ingen logg for enkel pålogging (SSO). Det finnes ingen revisjonsspor. Retningslinjer for dataoppbevaring gjelder ikke. Dataene som mates inn i disse verktøyene forsvinner inn i en svart boks, noe som skaper en enorm blindsone for AI for trusseldeteksjon fra innsidere.

Sårbarheten «kopier og lim inn»

Den vanligste mekanismen for dataeksponering er enkel: utklippstavlen. Ansatte kopierer rutinemessig tekst fra sikre interne miljøer som Salesforce eller IDE-er. De limer den deretter inn i GenAI-ledetekster.

Denne oppførselen er vanskelig å oppdage. Kopiering og liming er grunnleggende for bruk av datamaskiner. Tradisjonelle endepunktagenter sliter med å skille mellom en bruker som limer inn data i en bedrifts Slack-kanal og et offentlig AI-grensesnitt. Uten detaljert synlighet på nettlesernivå forblir denne høyhastighets dataflyten ukontrollert.

Virkelige implikasjoner av en GenAI-datalekkasje

Ubegrenset bruk av AI har konkrete konsekvenser. Høyprofilerte GenAI-datalekkasjer har allerede kompromittert betydelig immateriell eiendom.

Immaterielle rettigheter i faresonen

Kildekode er spesielt sårbar. Utviklere bruker AI-kodingsassistenter for å optimalisere rutiner. De limer ofte inn hele blokker med proprietær logikk i chattevinduet. Rapporter indikerer at kildekode står for omtrent 32 % av sensitive data som lekkes til AI-verktøy.

Når en offentlig modell inntar denne koden, blir den teknisk sett en del av leverandørens datasett. I verste fall kan AI-modellen «lære» av denne koden. Den kan deretter reprodusere den som svar på en forespørsel fra en konkurrent, og dermed effektivt åpne opp for organisasjonens forretningshemmeligheter.

Samsvar og brudd på retningslinjer

Utover IP-tyveri skaper ansattes misbruk av AI umiddelbar regulatorisk eksponering. Innen helsevesen eller finans bryter det med GDPR, HIPAA eller CCPA å laste opp pasientjournaler eller klienthistorikker til et ikke-kompatibelt AI-verktøy.

En finansanalytiker kan laste opp en transaksjonslogg for å generere et diagram. Denne ene handlingen kan utløse alvorlige straffer. Disse bruddene på retningslinjene er ofte uoppdagelige inntil en tredjepartsrevisjon avslører dem. Noen ganger dukker de først opp etter et offentlig brudd fra AI-leverandøren selv.

Hvorfor eldre verktøy mislykkes ved AI-deteksjon av insidertrusler

Sikkerhetsteam har vært avhengige av CASB-er, sikre webgatewayer (SWG) og nettverks-DLP for å overvåke data. Disse verktøyene ble bygget for definerte perimetre. De sliter i den dynamiske, nettleser-første verdenen av generativ AI.

Nettlesergapet

Verktøy på nettverksnivå inspiserer trafikk. Imidlertid er mesteparten av GenAI-trafikken kryptert via HTTPS. En SWG kan se en bruker som besøker openai.comDen kan ikke se hva brukeren gjør der. Den kan ikke skille mellom en spørring om været og en innlimt JSON-fil som inneholder 10 000 e-poster fra kunder.

Verktøy for overvåking av trusler fra AI-insidere som utelukkende er avhengige av nettverkssignaturer, klarer ikke å fange opp konteksten. De går glipp av den «siste milen» av interaksjonen: selve inputen i ledetekstboksen.

Usynlighet av personlige kontoer

Bruk av personlige kontoer gjør API-baserte kontroller ubrukelige. En bedriftsintegrasjon med Microsoft Copilot hindrer ikke en ansatt i å åpne en egen fane. De kan logge seg på en personlig ChatGPT-konto og lime inn de samme sensitive dataene der. Det er i dette hullet at de fleste trusler fra innside-AI materialiserer seg.

Trekk Tradisjonell nettverks-DLP / CASB LayerX nettleserdeteksjon og -respons
Synlighetsomfang Sanksjonerte apper (API-tilkoblet) All nettleseraktivitet (sanksjonert og skygge)
Datainspeksjon Filbasert (opplastinger/nedlastinger) Tekst i sanntid (spørsmål, skjemaer, lim inn)
Identitetskontekst Kun bedrifts-SSO Skiller mellom personlig og bedrifts-ID
Responstid Varsler etter hendelsen Sanntidsblokkering av risikable handlinger
Brukererfaring Tunge agenter blokkerer ofte apptilgang Lett forlengelse, detaljert coaching

 

Tabell 1: Sammenligning av eldre nettverkssikkerhet kontra nettleserstyrte kontroller for AI-sikkerhet.

Beskyttelse mot trusler fra innsidere innen kunstig intelligens med LayerX

For å effektivt redusere trusler fra innsiderelatert AI, må organisasjoner endre sitt defensive fokus. Slagmarken er ikke lenger nettverkets kant, men selve nettleseren. LayerXs plattform for nettleserdeteksjon og -respons (BDR) fungerer som en lett utvidelse. Den sitter direkte i brukerens arbeidsflyt for å gi den oversikten og kontrollen som nettverksenheter mangler.

Synlighet på nettlesernivå

LayerX eliminerer blindsonen «Shadow AI». Den reviderer hver utvidelse og nettøkt. Den identifiserer risikoer som AI-insidertrusselovervåkingsverktøy kan overse. For eksempel oppdager den om en bruker installerer en ondsinnet «GPT for Sheets»-utvidelse som ber om invasive tillatelser. Sikkerhetsteam kan kartlegge hele nettleser-til-sky-angrepsflaten. De ser nøyaktig hvilke verktøy som er i bruk, hvem som bruker dem, og om de får tilgang til dem med bedrifts- eller personlig legitimasjon.

Forhindre eksponering av data

Blokkering av AI-verktøy kveler innovasjon fullstendig og oppmuntrer til unnvikelse. LayerX bruker i stedet detaljerte rekkverk. Retningslinjer kan tillate tilgang til GenAI-nettsteder for forskning, samtidig som de blokkerer innliming av kode, personlig identifiserende informasjon eller nøkkelord merket som «konfidensielt».

Når en ansatt forsøker en risikabel handling, griper LayerX inn. Hvis en bruker prøver å lime inn en kundeliste i en chatbot, blokkeres handlingen. Brukeren får en popup-meny som forklarer bruddet på retningslinjene. Denne tilnærmingen forhindrer dataeksponering og informerer brukeren. Den reduserer sannsynligheten for fremtidige brudd på retningslinjene.

Nulltillitsnettleserisolering

LayerX håndhever en nulltillitsmodus for nettleseren. Den verifiserer brukerens identitet og integriteten til målappen før dataoverføring tillates. Hvis en bruker prøver å få tilgang til et GenAI-verktøy via en personlig konto, kan LayerX håndheve en "skrivebeskyttet" modus. Den kan også omdirigere dem til den bedriftsgodkjente instansen av verktøyet. Dette sikrer at bedriftsdata forblir innenfor grensene for bedriftsavtaler.

Strategiske anbefalinger for sikkerhetsledere

Å forsvare seg mot den interne trusselen fra AI krever en koordinert strategi. Teknologi må pares med kulturell endring.

  1. Revider skygge-SaaS-økosystemene dine
    Du kan ikke sikre det du ikke kan se. Implementer revisjon på nettlesernivå for å generere en oversikt over alle AI-verktøy som er i bruk. Kategoriser dem etter risikonivå og forretningsnytte.
  2. Definer tydelige bruksregler
    Tvetydighet fører til ulykker. Definer tydelig retningslinjer for akseptabel bruk av AI. Spesifiser hvilke verktøy som er tillatt. Angi hvilke datatyper som er utenfor grensene. Forklar konsekvensene av brudd på retningslinjene.
  3. Implementer kontroller på nettlesernivå
    Gå utover nettverks-DLP. Implementer en nettleserdeteksjons- og responsløsning som LayerX. Håndhev policyer på samhandlingspunktet. Dette gir den tekniske sikkerhetsløsningen som er nødvendig for å forhindre utilsiktede GenAI-datalekkasjer uten å stoppe produktiviteten.
  4. Kontinuerlig overvåking og utdanning
    Deteksjon av innsidetrusler med kunstig intelligens er ikke en engangsoppgave. Overvåk kontinuerlig for nye kunstig intelligens-applikasjoner. Oppdater blokkeringslister. Bruk data fra blokkerte hendelser til å identifisere avdelinger som trenger målrettet sikkerhetsopplæring.

GenAI har endret den digitale arbeidsplassen. Organisasjoner må erkjenne realiteten av innsidetrusler fra AI. Ved å implementere kontroller som samsvarer med hvordan ansatte faktisk jobber, kan bedrifter operasjonalisere fordelene med AI. De kan gjøre dette uten å bli ofre for risikoene. Målet er å sikre at organisasjonen deler sin innovasjon med verden, ikke sine hemmeligheter.