GenAI è diventato un componente essenziale nel toolkit dei dipendenti. Tuttavia, andando oltre titoli roboanti come questi, i dati quantitativi effettivi su come vengono utilizzate le applicazioni AI rimangono sorprendentemente scarsi. In LayerX, la nostra estensione del browser aziendale ci fornisce visibilità sulle attività degli utenti nel browser, dove Utilizzo dell'applicazione GenAI si svolge. Possiamo utilizzare questa visibilità per ricavare informazioni complete sull'utilizzo degli strumenti GenAI e delle applicazioni SaaS basate sull'intelligenza artificiale.

Per far luce sull'utilizzo di GenAI a vantaggio della comunità della sicurezza, abbiamo compilato e analizzato tali dati, creando un rapporto con (sorprendenti) risultati su come gli utenti aziendali consumano l'IA sul posto di lavoro. Basato su dati reali e telemetria raccolti dalla base clienti di LayerX Security, questo è il primo e unico report sull'uso aziendale di GenAI.

Di seguito, riportiamo alcuni dei risultati chiave. Per leggere l'intero "Rapporto sulla sicurezza dei dati GenAI aziendale 2025"report, inclusi tutti i punti dati e analisi avanzate, clicca qui..

Quanto è diffuso l'uso dell'intelligenza artificiale genica?

Mentre strumenti GenAI come ChatGPT, Gemini e Copilot stanno diventando argomenti di conversazione abituale, LayerX ha scoperto che il consumo effettivo rimane casuale. Solo il 14.5% degli utenti aziendali interagisce con questi strumenti settimanalmente. La maggior parte di questa attività avviene tramite ChatGPT. Gli sviluppatori di software sono gli utenti più frequenti (39%), seguiti da vendite e marketing (28%).

Ciò suggerisce che, sebbene GenAI abbia fatto notevoli progressi dalla fine del 2022, non è ancora diventata parte integrante dei flussi di lavoro quotidiani per la maggior parte delle persone. Tuttavia, si prevede che l'adozione crescerà e le organizzazioni dovrebbero monitorare l'utilizzo per comprendere meglio come l'IA viene sfruttata in diversi ruoli.

Quali applicazioni SaaS di intelligenza artificiale sono in uso?

I dati di LayerX rivelano che l'utilizzo delle applicazioni AI è fortemente concentrato tra pochi strumenti dominanti, con ChatGPT da solo che rappresenta quasi il 52% di tutte le richieste di siti Web correlate all'AI. Le prime cinque applicazioni AI, tra cui Gemini, Claude e Copilot, rappresentano l'86% dell'utilizzo AI, mentre le ultime 50 rappresentano collettivamente meno dell'1%.

Da una prospettiva di sicurezza e IT, questo crea un problema di "AI ombra", in cui numerose applicazioni di AI meno note operano sotto il radar con poca supervisione, esponendo potenzialmente dati sensibili e creando rischi per la sicurezza. Per mitigare questo problema, si raccomanda che i team di sicurezza implementino monitoraggio e governance per tracciare l'utilizzo dell'AI in tutte le applicazioni SaaS.

Le organizzazioni hanno visibilità sull'utilizzo dell'intelligenza artificiale sul posto di lavoro?

La stragrande maggioranza dell'utilizzo dell'IA sul posto di lavoro avviene al di fuori della supervisione organizzativa, con il 71.6% dell'accesso agli strumenti GenAI tramite account non aziendali. Anche tra gli utenti che utilizzano account aziendali, solo l'11.7% degli accessi totali soddisfa lo standard di sicurezza degli account aziendali supportati da SSO. Ciò fa sì che circa il 90% dell'utilizzo degli strumenti di intelligenza artificiale resti invisibile alle organizzazioni.

I dipendenti che utilizzano account personali per gli strumenti GenAI aggirano le misure di sicurezza aziendali, esponendo i dati aziendali a potenziali rischi per la sicurezza, tra cui l'uso non autorizzato dei dati per la formazione del modello AI. Anche quando vengono utilizzati account aziendali, se non utilizzano SSO, le organizzazioni perdono visibilità sulle interazioni AI.

Quali informazioni vengono condivise?

Una piccola percentuale di utenti aziendali è responsabile della condivisione di grandi quantità di dati con gli strumenti GenAI. Tuttavia, coloro che si impegnano in questa attività tendono a farlo frequentemente: gli utenti assidui incollano dati in media 6.8 volte al giorno, con oltre il 50% di quegli incollaggi contenenti informazioni aziendali. Anche i caricamenti di file, sebbene meno comuni, avvengono a una frequenza notevole.

Il rischio principale deriva dal copia/incolla e dal caricamento di file, poiché consentono di condividere rapidamente grandi quantità di dati aziendali sensibili. Allo stesso modo, il caricamento di file probabilmente coinvolge grandi set di dati che, se non monitorati, potrebbero rappresentare rischi per la sicurezza. Per mitigare la potenziale esposizione dei dati, le organizzazioni dovrebbero monitorare attentamente le interazioni degli utenti con gli strumenti GenAI, tracciare le attività di condivisione dei dati e implementare controlli per impedire la divulgazione non autorizzata di informazioni aziendali.

Il problema con le estensioni del browser AI

Abilitato da GenAI estensioni del browser rappresentano un rischio significativo ma spesso trascurato per la sicurezza delle aziende. La nostra ricerca indica che oltre il 20% degli utenti ha installato almeno un'estensione del browser basata sull'intelligenza artificiale e quasi la metà di loro utilizza più estensioni. In modo allarmante, il 58% di queste estensioni richiede autorizzazioni "elevate" o "critiche", che garantiscono l'accesso a dati sensibili come cookie, attività di navigazione e identità degli utenti. Ancora più preoccupante, il 5.6% delle estensioni basate sull'intelligenza artificiale è classificato come dannoso, il che lo rende un potenziale vettore per il furto di dati.

La sicurezza delle estensioni del browser è parte integrante della strategia di sicurezza generale GenAI dell'organizzazione. I team di sicurezza devono implementare controlli sulle estensioni del browser abilitate all'intelligenza artificiale, assicurandosi che ricevano lo stesso controllo dell'accesso diretto GenAI per mitigare le potenziali minacce.

Cosa riserva il futuro alle organizzazioni

In base al rapporto, sembra che le organizzazioni non abbiano visibilità sugli accessi e gli accessi alle applicazioni AI SaaS, sull'uso di applicazioni che non sono le più popolari e sulle estensioni AI del browser. Ottenere visibilità su ogni aspetto di queste superfici di minacce nascoste dovrebbe essere una priorità per ogni organizzazione. Poiché il consumo avviene tramite il browser, prevenire la perdita di dati GenAI richiede un strategia di sicurezza browser-first che si concentra su dove e come gli utenti utilizzano gli strumenti GenAI e sull'implementazione di strumenti di sicurezza che applicano di conseguenza le protezioni di sicurezza.

Leggi il rapporto completo.