LayerX Labs a identifié un nouveau vecteur d'attaque permettant aux acteurs malveillants de tenter d'extraire des données sensibles d'utilisateurs sans méfiance : les attaques de masquareding GPT.
Dans cette attaque, les pirates se font passer pour des GPT légitimes hébergés sur la plateforme ChatGPT d'OpenAI afin d'attirer les utilisateurs vers de fausses versions de ces GPT et d'envoyer les données que les utilisateurs partagent avec le GPT à un serveur distant, et ainsi extraire des données sensibles.
Les outils d’intelligence artificielle (IA) ont transformé la façon dont nous interagissons avec la technologie, offrant des solutions innovantes dans divers domaines, de la santé à la finance. Ces outils améliorent l’efficacité, automatisent les tâches et fournissent des informations qui étaient auparavant inaccessibles. Parmi les avancées les plus notables de l’IA figurent les transformateurs pré-entraînés génératifs (GPT), qui sont à la pointe du traitement du langage naturel.
Que sont les GPT ?
OpenAI a récemment ajouté une nouvelle fonctionnalité permettant de créer des GTP personnalisés sur sa plateforme et de les ouvrir aux utilisateurs d'OpenAI, à la manière d'une place de marché d'applications.
Les transformateurs pré-entraînés génératifs (GPT) sont des modèles d'IA avancés conçus pour comprendre et générer le langage humain. Développés par OpenAI, ils sont formés sur des ensembles de données complets qui englobent un large éventail de sujets, ce qui leur permet de produire un texte cohérent et contextuellement pertinent en fonction des invites de l'utilisateur. En analysant les modèles de langage, les GPT peuvent engager des conversations, répondre à des questions et créer du contenu qui reflète la communication humaine.

La polyvalence des GPT permet de les appliquer de nombreuses façons, notamment dans le cadre de chatbots pour le service client, de la création de contenu pour les blogs et les articles, de la traduction linguistique et même de l'assistance au codage. À mesure que ces modèles continuent d'évoluer, ils deviennent de plus en plus aptes à comprendre le contexte et les nuances du langage, ce qui en fait des outils précieux dans les contextes personnels et professionnels.
Cependant, les avantages de productivité offerts par les GPT personnalisés sont la raison pour laquelle les utilisateurs peuvent être victimes d'attaques de masquareding GPT.
Manuel des cybercriminels : exploiter les GPT
Les capacités des transformateurs pré-entraînés génératifs (GPT) continuent de s’étendre, tout comme le potentiel des cybercriminels à exploiter ces technologies à des fins malveillantes. L’un des principaux vecteurs d’attaque identifiés par LayerX Labs – et baptisé GPT Masquareing Attacks – est la capacité des acteurs malveillants à créer des versions identiques ou trompeusement similaires de modèles GPT légitimes, afin d’inciter les utilisateurs légitimes à partager des informations sensibles.
En reproduisant ces modèles, ils peuvent manipuler les utilisateurs en leur faisant croire qu'ils interagissent avec une IA de confiance., obtenant ainsi un accès non autorisé à des données et informations sensibles.
Comment les attaquants créent des GPT masqués :
- Identifier un GPT existant et légitime qu’ils souhaitent répliquer. Il peut s'agir soit d'un GPT d'une marque connue, soit d'un outil particulièrement populaire ou utile que de nombreux utilisateurs pourraient être intéressés à utiliser.
- Créez un GPT similaire avec le même nom, la même icône et la même descriptionPour un observateur extérieur, ce GPT apparaîtra complètement identique au GPT original (légitime).
- Attendez que les utilisateurs recherchent le GPT légitime. Il est très difficile de distinguer les différents GPT, et les utilisateurs peuvent facilement cliquer sur le GPT masqué.
- Envoyer les informations saisies ou téléchargées dans le GPT vers un serveur externeLes utilisateurs seront invités à approuver le partage d'informations avec un serveur externe, mais s'ils s'attendent à ce type de comportement (ou ne savent pas faire autrement), ils n'auront aucun contrôle sur l'endroit où ces données sont envoyées.
- Une fois que les informations sont envoyées à un serveur tiers, elles échappent aux mains des utilisateurs et tombent entre les mains des attaquants.Bien que la plupart des informations soient probablement anodines, elles peuvent contenir des informations sensibles telles que du code source propriétaire, des informations client à des fins d’analyse, etc.
Les cybercriminels peuvent créer de fausses plateformes ou applications qui semblent utiliser un GPT légitime. En imitant l'interface et les fonctionnalités d'un service d'IA bien connu, ils peuvent inciter des utilisateurs peu méfiants à partager des informations personnelles ou des identifiants. Une fois que les utilisateurs interagissent avec ces modèles contrefaits, toutes les données saisies, telles que les identifiants de connexion, les informations de paiement ou les messages privés, peuvent être transférées vers les serveurs des criminels. Cela crée un risque important, car les utilisateurs peuvent ne pas se rendre compte qu'ils sont victimes d'une arnaque avant qu'il ne soit trop tard.
De plus, ces les GPT frauduleux peuvent être conçus pour engager les utilisateurs de manière à encourager la divulgation de nouvelles données. Par exemple, ils peuvent simuler des interactions avec le service client, en persuadant les utilisateurs de fournir des informations personnelles plus détaillées sous prétexte de résoudre des problèmes. La capacité des GPT à générer du texte de type humain rend difficile pour les utilisateurs de distinguer les interactions légitimes des interactions malveillantes, ce qui amplifie le risque de vol de données.
La menace au sein de l'organisation
Les GPT sont devenus des outils essentiels pour les développeurs, facilitant le codage, le débogage et la documentation. Par conséquent, les versions frauduleuses de ces GPT peuvent nuire considérablement aux organisations, tant sur le plan financier que sur celui de leur réputation, en ciblant les développeurs pour extraire du code interne sensible.
Ces GPT malveillants peuvent être conçus pour ressembler étroitement à des outils de développement fiables, ce qui permet aux développeurs peu méfiants d'être facilement induits en erreur.. Par exemple, un attaquant pourrait déployer un faux assistant d'intelligence artificielle qui semble fonctionner de manière similaire à un assistant de codage établi, incitant ainsi les développeurs à interagir avec lui. Une fois engagés, ces modèles frauduleux peuvent inciter les utilisateurs à partager des extraits de code ou des algorithmes propriétaires sous couvert d'amélioration des fonctionnalités ou de correction de bugs.
Vous trouverez ci-dessous un exemple de création d'un GPT de masquage se faisant passer pour le GPT Code CoPilot :
Le risque est particulièrement aigu dans les environnements collaboratifs où les développeurs sollicitent fréquemment l’aide d’outils d’IA pour des tâches complexes : Lorsqu'un développeur soumet sans le savoir un code interne sensible à un GPT frauduleux, l'attaquant accède à une propriété intellectuelle critique et à des vulnérabilités potentiellement exploitables au sein du logiciel de l'organisationCela met non seulement en péril l’avantage concurrentiel de l’entreprise, mais augmente également la probabilité de nouvelles cyberattaques.
De plus, les cybercriminels peuvent automatiser la distribution de ces faux GPT, ciblant ainsi simultanément plusieurs organisations et développeurs. En créant des messages mettant en avant les avantages de l’utilisation de leurs outils contrefaits, ils peuvent attirer efficacement les développeurs désireux d’obtenir de l’aide. La nature sophistiquée de ces modèles d’IA leur permet de générer des réponses qui semblent crédibles et pertinentes, brouillant encore davantage la frontière entre l’aide légitime et l’intention malveillante.
Conclusion
L’essor des GPT a sans aucun doute transformé notre façon d’interagir avec la technologie, améliorant la productivité et l’efficacité dans divers domaines. Cependant, cette avancée comporte également des risques importants, notamment parce que les cybercriminels exploitent ces outils à des fins malveillantes. En créant des versions frauduleuses de GPT qui imitent les versions légitimes, les attaquants peuvent tromper les utilisateurs et les organisations, ce qui entraîne le vol de données, des pertes financières et des atteintes à la réputation.
Pour faire face à ces risques, LayerX propose plusieurs stratégies d’atténuation clés adaptées pour protéger les organisations contre les interactions indésirables avec les modèles d’IA :
- Notre solution unique de sécurité du navigateur – Implémentez la solution de sécurité du navigateur de LayerX pour surveiller et filtrer les interactions Web. Ces outils peuvent détecter les sites frauduleux et alerter les utilisateurs avant qu'ils n'interagissent avec des GPT malveillants.
- Contrôles d'accès – Utilisez les fonctionnalités de gestion des accès de LayerX pour empêcher les employés d'utiliser des outils d'IA non autorisés. En contrôlant les applications accessibles via les réseaux d'entreprise, les organisations peuvent réduire le risque d'exposition aux modèles contrefaits.
- Analyse comportementale – Exploitez les capacités d'analyse comportementale de LayerX pour identifier des modèles d'interaction inhabituels avec les outils d'IA. Cela peut aider à détecter d'éventuelles tentatives de phishing ou des demandes non autorisées de code sensible.
- Alertes en temps réel – Configurez des alertes en temps réel pour informer les équipes de sécurité de toute activité suspecte liée aux interactions avec l’IA. Cette approche proactive permettra à votre organisation de réagir rapidement aux menaces potentielles.
En intégrant ces stratégies dans votre cadre de sécurité, votre organisation peut mieux se protéger contre l’exploitation des technologies d’IA. À mesure que la technologie GPT continue d’évoluer, l’exploitation des solutions spécialisées de LayerX sera essentielle pour maintenir un environnement sécurisé et protéger les informations sensibles.