LayerX Labs ha identificato un nuovo vettore di attacco che consente ai malintenzionati di tentare di estrarre dati sensibili da utenti ignari: gli attacchi GPT Masquareding.
In questo attacco, gli hacker impersonano GPT legittimi ospitati sulla piattaforma ChatGPT di OpenAI per indurre gli utenti a usare versioni false di tali GPT e inviare i dati che gli utenti condividono con il GPT a un server remoto, estraendo in tal modo dati sensibili.
Gli strumenti di Intelligenza Artificiale (IA) hanno trasformato il modo in cui interagiamo con la tecnologia, offrendo soluzioni innovative in vari ambiti, dall'assistenza sanitaria alla finanza. Questi strumenti migliorano l'efficienza, automatizzano le attività e forniscono informazioni che in precedenza erano irraggiungibili. Tra i progressi più notevoli nell'IA ci sono i Generative Pre-trained Transformers (GPT), che sono all'avanguardia nell'elaborazione del linguaggio naturale.
Cosa sono i GPT?
OpenAI ha recentemente aggiunto una nuova funzionalità per creare GTP personalizzati sulla propria piattaforma e renderli accessibili agli utenti OpenAI, in modo simile a un marketplace di applicazioni.
I Generative Pre-trained Transformers (GPT) sono modelli di intelligenza artificiale avanzati progettati per comprendere e generare il linguaggio umano. Sviluppati da OpenAI, sono addestrati su set di dati estesi che comprendono un'ampia gamma di argomenti, consentendo loro di produrre testo coerente e contestualmente rilevante in base alle richieste dell'utente. Analizzando i modelli linguistici, i GPT possono impegnarsi in conversazioni, rispondere a domande e creare contenuti che rispecchiano la comunicazione umana.
La versatilità dei GPT consente loro di essere applicati in numerosi modi, tra cui chatbot per il servizio clienti, creazione di contenuti per blog e articoli, traduzione di lingue e persino assistenza alla codifica. Man mano che questi modelli continuano a evolversi, stanno diventando più abili nel comprendere il contesto e le sfumature del linguaggio, rendendoli strumenti inestimabili sia in contesti personali che professionali.
Tuttavia, i vantaggi in termini di produttività offerti dai GPT personalizzati sono il motivo per cui gli utenti potrebbero cadere negli attacchi GPT Masquareding.
Manuale dei criminali informatici: sfruttare i GPT
Man mano che le capacità dei Generative Pre-trained Transformers (GPT) continuano ad espandersi, aumenta anche il potenziale dei criminali informatici di sfruttare queste tecnologie per scopi dannosi. Un importante vettore di attacco identificato da LayerX Labs, e denominato GPT Masquareing Attacks, è la capacità degli attori malintenzionati di creare versioni identiche o ingannevolmente simili di modelli GPT legittimi, al fine di indurre gli utenti legittimi a condividere informazioni sensibili.
Replicando questi modelli, possono manipolare gli utenti facendogli credere di interagire con un'intelligenza artificiale affidabile, ottenendo così l'accesso non autorizzato a dati e informazioni sensibili.
Come gli aggressori creano GPT mascherati:
- Identificare un GPT esistente e legittimo che si desidera replicare. Può trattarsi di un GPT di un marchio noto oppure di uno strumento particolarmente popolare o utile che molti utenti potrebbero essere interessati a utilizzare.
- Crea un GPT dall'aspetto simile con lo stesso nome, icona e descrizionePer un osservatore esterno, questo GPT apparirà completamente identico al GPT originale (legittimo).
- Attendi che gli utenti cerchino il GPT legittimo. Distinguere i diversi GPT è molto difficile e gli utenti possono facilmente fare clic sul GPT mascherato.
- Invia le informazioni immesse o caricate nel GPT a un server esternoAgli utenti verrà chiesto di approvare la condivisione di informazioni con un server esterno, ma se si aspettano questo tipo di comportamento (o non sanno come comportarsi), non avranno alcun controllo su dove questi dati vengono inviati.
- Una volta che le informazioni vengono inviate a un server di terze parti, escono dalle mani degli utenti e finiscono nelle mani degli aggressori.Sebbene la maggior parte delle informazioni saranno probabilmente innocue, possono contenere informazioni sensibili come codice sorgente proprietario, informazioni sui clienti per analisi e altro ancora.
I criminali informatici possono creare piattaforme o applicazioni false che sembrano utilizzare un GPT legittimo. Imitando l'interfaccia e le funzionalità di un noto servizio di intelligenza artificiale, possono indurre gli utenti ignari a condividere informazioni personali o credenziali. Una volta che gli utenti interagiscono con questi modelli contraffatti, tutti i dati inseriti, come credenziali di accesso, informazioni di pagamento o messaggi privati, possono essere trasferiti ai server dei criminali. Ciò crea un rischio significativo, poiché gli utenti potrebbero non rendersi conto di essere caduti vittima di una truffa finché non è troppo tardi.
Inoltre, questi I GPT fraudolenti possono essere progettati per coinvolgere gli utenti in modi che incoraggiano un'ulteriore divulgazione dei dati. Ad esempio, potrebbero simulare interazioni di assistenza clienti, convincendo gli utenti a fornire informazioni personali più dettagliate con il pretesto di risolvere problemi. La capacità dei GPT di generare testo simile a quello umano rende difficile per gli utenti distinguere tra interazioni legittime e dannose, amplificando così il rischio di furto di dati.
La minaccia all'interno dell'organizzazione
I GPT sono diventati strumenti essenziali per gli sviluppatori, aiutando nella codifica, nel debug e nella documentazione. Di conseguenza, le versioni fraudolente di questi GPT possono danneggiare significativamente le organizzazioni sia finanziariamente che reputazionalmente, prendendo di mira gli sviluppatori per estrarre codice interno sensibile.
Questi GPT dannosi possono essere progettati per assomigliare molto a strumenti di sviluppo affidabili, rendendo facile per gli sviluppatori ignari essere tratti in inganno. Ad esempio, un aggressore potrebbe distribuire un assistente AI contraffatto che sembra funzionare in modo simile a un assistente di codifica affermato, invogliando gli sviluppatori a interagire con esso. Una volta coinvolti, questi modelli fraudolenti possono indurre gli utenti a condividere frammenti di codice o algoritmi proprietari con il pretesto di migliorare la funzionalità o correggere bug.
Di seguito è riportato un esempio di creazione di un Masquerading GPT che impersona il Code CoPilot GPT:
Il rischio è particolarmente acuto negli ambienti collaborativi in cui gli sviluppatori spesso richiedono assistenza da strumenti di intelligenza artificiale per attività complesse: Quando uno sviluppatore invia inconsapevolmente codice interno sensibile a un GPT fraudolento, l'aggressore ottiene l'accesso a proprietà intellettuali critiche e vulnerabilità potenzialmente sfruttabili all'interno del software dell'organizzazioneCiò non solo mette a repentaglio il vantaggio competitivo dell'azienda, ma aumenta anche la probabilità di ulteriori attacchi informatici.
Inoltre, i criminali informatici possono automatizzare la distribuzione di questi falsi GPT, prendendo di mira più organizzazioni e sviluppatori contemporaneamente. Creando messaggi che evidenziano i vantaggi dell'utilizzo dei loro strumenti contraffatti, possono effettivamente attirare gli sviluppatori desiderosi di supporto. La natura sofisticata di questi modelli di intelligenza artificiale consente loro di generare risposte che appaiono credibili e pertinenti, confondendo ulteriormente i confini tra assistenza legittima e intenti malevoli.
Conclusione
L'ascesa dei GPT ha indubbiamente trasformato il modo in cui interagiamo con la tecnologia, migliorando la produttività e l'efficienza in vari domini. Tuttavia, questo progresso comporta anche rischi significativi, in particolare perché i criminali informatici sfruttano questi strumenti per scopi dannosi. Creando versioni fraudolente dei GPT che imitano quelli legittimi, gli aggressori possono ingannare utenti e organizzazioni, portando a furto di dati, perdite finanziarie e danni alla reputazione.
Per affrontare questi rischi, LayerX offre diverse strategie di mitigazione chiave studiate appositamente per proteggere le organizzazioni da interazioni indesiderate con i modelli di intelligenza artificiale:
- La nostra esclusiva soluzione per la sicurezza del browser – Implementa la soluzione di sicurezza del browser LayerX per monitorare e filtrare le interazioni web. Questi strumenti possono rilevare siti fraudolenti e avvisare gli utenti prima che interagiscano con GPT dannosi.
- Controlli di accesso – Utilizza le funzionalità di gestione degli accessi di LayerX per impedire ai dipendenti di utilizzare strumenti di intelligenza artificiale non autorizzati. Controllando quali applicazioni possono essere accessibili tramite le reti aziendali, le organizzazioni possono ridurre il rischio di esposizione a modelli contraffatti.
- Analisi comportamentale – Sfrutta le capacità di analisi comportamentale di LayerX per identificare modelli insoliti di interazione con gli strumenti AI. Ciò può aiutare a rilevare potenziali tentativi di phishing o richieste non autorizzate di codice sensibile.
- Avvisi in tempo reale – Imposta avvisi in tempo reale per notificare ai team di sicurezza qualsiasi attività sospetta correlata alle interazioni con l'IA. Questo approccio proattivo consentirà alla tua organizzazione di rispondere rapidamente a potenziali minacce.
Integrando queste strategie nel tuo framework di sicurezza, la tua organizzazione può proteggersi meglio dallo sfruttamento delle tecnologie AI. Man mano che la tecnologia GPT continua a evolversi, sfruttare le soluzioni specializzate di LayerX sarà essenziale per mantenere un ambiente sicuro e proteggere le informazioni sensibili.
