Generativ AI har ikke kun ændret, hvordan vi arbejder, men også hvordan angribere opererer, hvordan data flyttes, og hvad sikkerhedsteams skal forsvare sig imod. Den samme teknologi, der gør medarbejderne mere produktive, skaber helt nye angrebsflader, og de værktøjer, vi plejede at stole på, var simpelthen ikke bygget til denne verden.

Traditionelle DLP-løsninger blev designet omkring forudsigelige, strukturerede data såsom kreditkortnumre, CPR-numre og regex-venlige mønstre. Men nutidens følsomme oplysninger ser ikke sådan ud. Det er et strategidokument, der er indsat i ChatGPT. Dets proprietære kildekode er lagt ind i en AI-kodningsassistent. Det er intellektuel ejendom, der flyder ud af din organisation én prompt ad gangen, lydløst, uden at et eneste politikflag udløses.

Sikkerhedsbranchen har brug for en ny tilgang. Og den tilgang lever i stigende grad på kanten.

Hvorfor cloudbaseret AI-håndhævelse ikke fungerer

Det er fristende at tro, at svaret blot er at dirigere AI-aktivitet gennem en cloudbaseret LLM til analyse. Men dette skaber en række nye problemer, der gør håndhævelse i realtid i bedste fald upraktisk og i værste fald farlig.

  • PrivatlivFølsomme data skal forlade enheden for at blive analyseret, hvilket betyder, at du løser et problem med datalækage ved… at sende data et andet sted hen
  • LatencyForsinkelser tur-retur til et cloud-slutpunkt underminerer håndhævelse i realtid – når en beslutning træffes, er handlingen allerede sket
  • Oppetid og pålidelighedAfhængighed af netværksforbindelse skaber sikkerhedshuller netop når man mindst har råd til dem
  • PrisDet bliver hurtigt dyrt at køre alle brugerinteraktioner via centraliseret cloudbehandling på virksomhedsniveau

Konklusionen er klar: Hvis du ønsker AI-drevet sikkerhed, der er privat, hurtig, altid aktiv og omkostningseffektiv, skal analysen ske lokalt, på enheden, i browseren, i det øjeblik brugeren foretager en handling.

Hvad kun en lokal SLM kan gøre

Det er her, at små sprogmodeller, der kører på enheder, ændrer alt. SLM'er er ikke bare en lettere version af cloud-LLM'er; de låser op for muligheder, der simpelthen ikke kan opnås på nogen anden måde. 

Der er specifikt fire nøglefunktioner, der er mest betydningsfulde for AI-sikkerhed.

  1. Ægte dataklassificering
    Ældre DLP-værktøjer klassificerer data ved hjælp af regler, nøgleord og regex-mønstre. Det fungerer for strukturerede data som PII. Men din virksomheds mest værdifulde oplysninger, såsom strategiske planer, produktkøreplaner, uoffentliggjort forskning og proprietære processer, matcher ikke et mønster. Man kan simpelthen ikke regexe sig selv for at fange det.En lokal SLM forstår kontekst og betydning. Den kan genkende, at en tekstblok er følsom forretnings-IP, selv uden et eneste reguleret nøgleord i sigte. Dette er især kritisk i AI-assistenternes tidsalder, for mens LLM'er har beskyttelsesrækværk omkring visning af kreditkortnumre, flyder generelle forretningsoplysninger direkte ind i træningsdatasæt uden nogen friktion overhovedet.
  1. Forstå brugerhensigter
    At opdage en politikovertrædelse handler ikke kun om, hvilke data der deles. Det handler snarere om hvorforBeder en bruger uskyldigt et AI-værktøj om hjælp til at udarbejde en e-mail, eller undersøger de systematisk værktøjet for at udtrække konkurrenceinformation? Det er næsten umuligt at vurdere intentionen uden at opretholde en kontekstkæde på tværs af en hel session. En lokal SLM, der kører kontinuerligt i browseren, gør præcis det.
  2. Detektering af AI-native angreb
    Prompt injection, jailbreaking, guardrail manipulation, sandbox escapes – disse er de nye grænser for cyberangreb, og de er designet specifikt til at udnytte AI-systemer. Detektering af dem kræver en AI, der forstår, hvordan AI-systemer kan manipuleres. En lokal SLM, der overvåger interaktioner i realtid, kan identificere disse angrebsmønstre, når de udfolder sig, ikke bagefter.
  3. Overvågning af LLM-output
    Nogle gange er truslen ikke brugeren, men selve AI'en. Hallucinationer, der genererer falsk information, giftige output, uetiske reaktioner eller data, der utilsigtet dukker op fra en models træningssæt, er alle reelle risici. En lokal SLM leverer et andet lag af intelligens, der overvåger AI'ens reaktioner og markerer anomalier, før de når brugeren. Det er AI, der overvåger AI, hvilket kun kan gøres inline, under kørsel.Det kritiske punkt, der forener alle fire aspekter: hver eneste del af denne analyse sker på endpointen. Ingen data forlader enheden. Ingen krypteringsoverhead. Ingen kompromis med privatlivets fred. Ingen ventetid.

SLM'er er nyttige, men nogle er hurtigere end andre

LayerX er den førende AI-brugskontrolløsning til sikring af bruger- og agentinteraktioner med AI i browseren. Vi har arbejdet på at udvikle lokal SLM-baseret håndhævelse som den arkitektur, der muliggør ægte AI-sikkerhed – privat, i realtid og altid tilgængelig.

Men vi anerkender også en praktisk realitet: ikke al hardware er klar til denne arbejdsbyrde. At køre en kapabel SLM lokalt kræver seriøs AI-processorkraft på enheden, og det er her, vores samarbejde med Intel bliver den afgørende brik i puslespillet.

Intels WebGPU-frameworks, Intel® Core™ Ultra 3, leverer den NPU-ydeevne (Neural Processing Unit) der er nødvendig for at køre SLM-baserede sikkerhedsopgaver uden at påvirke brugeroplevelsen. For at demonstrere dette konkret viser vi benchmark-sammenligninger på tværs af tre virkelige sikkerhedsanvendelsesscenarier - dataopsummering, dataklassificering og phishing-detektion - der måler ydeevnen på Intel i forhold til alternative chips og cloudbaserede tilgange.

"Intel samarbejder med LayerX for at fremme AI PC-sikkerhedsfunktioner, der bringer nye niveauer af synlighed og håndhævelse til den moderne, AI-drevne arbejdsstyrke," sagde Dennis Luo, Sr. Director og GM, Worldwide AI PC Developer Relations hos Intel. "Med Intels WebGPU-frameworks leverer Intel® Core™ Ultra 3 op til 2 gange hurtigere responstider i forhold til AMD Ryzen AI – en fordel, der bliver afgørende, efterhånden som virksomhedsbrowsere i stigende grad inspicerer alle bruger- og agentinteraktioner."

Resultaterne fortæller en overbevisende historie om, hvordan nul-latens, sikkerhedsinferens på enheden ser ud i praksis: beslutninger i realtid, ingen cloud-round-trips, lavere driftsomkostninger og fuldstændig datasuverænitet.

Sammenligning af LayerX' ydeevne oven på Intel® Core™ Ultra X7 358H sammenlignet med andre førende processorer viser afgørende resultater:

Sammenligning Resultater
AMD Ryzen AI 9 365 med Radeon 880M Op til 2 gange hurtigere ydeevne med Layer X på tværs af 3 forskellige ydeevnetests på Intel® Core™ Ultra X7 358H vs. AMD Ryzen AI 9 365 med Radeon 880M *
Intel Core Ultra 258V Op til 1.4 gange hurtigere ydeevne med Layer X på tværs af 3 forskellige ydeevnetests på Intel® Core™ Ultra X7 358H vs. Intel Core Ultra 258V *
Apple M5 Op til 1.3 gange hurtigere ydeevne med Layer X på tværs af 3 forskellige ydeevnetests på Intel® Core™ Ultra X7 358H vs. Apple M5 *

* Målt ved Layer X-promptbelastninger ved brug af Chrome-browseren. Se. www.intel.com/PerformanceIndex for arbejdsbelastninger og konfigurationer. Resultaterne kan variere

 

Sammenligning af ydeevnen af Intel® Core™ Ultra X7 358H vs. andre førende processorer (højere jo bedre):


LayerX og Intel: Sikkerhed, der holder trit med AI

De organisationer, der vinder inden for AI-sikkerhed, er ikke dem, der blokerer AI – de er dem, der har fundet ud af, hvordan de kan styre den intelligent med den hastighed, den opererer. Det betyder, at håndhævelsen flyttes til kanten, at man bruger modeller, der er intelligente nok til at forstå kontekst og intentioner, og at man gør det hele uden at gå på kompromis med brugernes privatliv eller operationelle ydeevne.

Samarbejdet mellem LayerX og Intel er et konkret skridt i den retning. Lokale SLM'er, der kører på kompatibel hardware, er ikke blot en teknisk kuriositet – de er den arkitektur, der får den næste generation af sikkerhed til rent faktisk at fungere.

 

Målt ved Layer X-promptbelastninger ved brug af Chrome-browseren. Se. www.intel.com/PerformanceIndex for arbejdsbyrder og konfigurationer. Resultaterne kan variere.